software gezocht.
-
- Elite Poster
- Berichten: 1577
- Lid geworden op: 01 feb 2006, 11:24
een vriend van mij zoekt een gebruiksvriendelijke applicatie(freeware) om in één keer foto's van een website of van een bepaald deel van een website ineens te downloaden.
Het zijn mijn laatste weken bij Belgacom. Ik ga een andere lucht opsnuiven. Byebye Telecomworld.
-
- Elite Poster
- Berichten: 3868
- Lid geworden op: 20 maa 2004, 20:10
- Uitgedeelde bedankjes: 95 keer
- Bedankt: 48 keer
man wget
- deej
- Elite Poster
- Berichten: 3322
- Lid geworden op: 09 dec 2002, 21:14
- Locatie: Een boerengat nu met VDSL2!
- Uitgedeelde bedankjes: 19 keer
- Bedankt: 4 keer
+1. Ik gebruik het ook heel intensief, aanrader!kUmbro schreef:DownThemAllextensie voor firefox is gratis en kan dit. Ook pdf bestanden etc. Ge kunt ook zelf filters vastleggen voor bestanden die standaard niet zijn toegevoegd.
-
- Elite Poster
- Berichten: 1577
- Lid geworden op: 01 feb 2006, 11:24
thx.
hij gebruikt flock, maar vermits dit gebaseerd is op firefox, zal dit ook wel lukken.
hij gebruikt flock, maar vermits dit gebaseerd is op firefox, zal dit ook wel lukken.
Het zijn mijn laatste weken bij Belgacom. Ik ga een andere lucht opsnuiven. Byebye Telecomworld.
- Ken
- Elite Poster
- Berichten: 4229
- Lid geworden op: 04 apr 2005, 23:18
- Locatie: België
- Uitgedeelde bedankjes: 47 keer
- Bedankt: 94 keer
Inderdaad, wget is de beste tool daarvoor ![Smile :-)](./images/smilies/icon_smile.gif)
![Smile :-)](./images/smilies/icon_smile.gif)
Internet = Proximus Business Flex Fiber 1000/100 & back-up Telenet Business Fibernet 300/30 Mbps
Fixed phone = OVH VoIP Entreprise
Mobile= Destiny Mobile Unlimited + Samsung S21
TV = FTA IPTV + Netflix
Network = 100% MikroTik powered
Car = Tesla Model 3 (Team blue)
-
- Moderator
- Berichten: 19634
- Lid geworden op: 07 nov 2006, 12:11
- Twitter: kriskenbe
- Locatie: Massemen - 91WET0
- Uitgedeelde bedankjes: 1863 keer
- Bedankt: 1003 keer
- Contacteer:
Ik zit eigenlijk met een soortgelijk probleem...
Een school waar een collega van mij lesgeeft heeft bij one.com een pakket afgenomen, inclusief domeinnaam.
Nu krijgen verschillende leerlingen daar enkele basislessen HTML, en moeten ze hun resultaat online zetten als leerling.naamschool.net/leerlingnummer/. De meeste sites zijn een paar html files, inclusief wat jpg's en gif's en af en toe een mp3.
Enig probleem : welke leerling heeft de lessen HTML gevolgd, en heeft aldus zijn site online gezet... Daar alles volgens inschrijfnummer is gebeurd kan het zijn dat leerling 202 een site online heeft en leerling 939 niet. Veiligheidshalve willen we elke nummer downloaden. Ook al staat er niks in de map.
Hoe kan ik vanop een linuxbak (server of thuis) ervoor zorgen dat hij alles van leerling.naamschool.net/???/ kopieert naar een lokale schijf? Ik kan (denk ik) met wget -R werken, maar dit lijkt mij daarvoor niet handig. FTP downloaden van het subdomein werkt ook niet (geen rechten genoeg)...
Reden : de school wilt het hele leerlingarchief op een andere naam zetten (en andere server) omdat het one.com account bijna volloopt (elke leerling krijgt 10mb). One.com zijn helpdesk is reeds gecontacteerd, doch daar krijg ik geen gehoor...
Een school waar een collega van mij lesgeeft heeft bij one.com een pakket afgenomen, inclusief domeinnaam.
Nu krijgen verschillende leerlingen daar enkele basislessen HTML, en moeten ze hun resultaat online zetten als leerling.naamschool.net/leerlingnummer/. De meeste sites zijn een paar html files, inclusief wat jpg's en gif's en af en toe een mp3.
Enig probleem : welke leerling heeft de lessen HTML gevolgd, en heeft aldus zijn site online gezet... Daar alles volgens inschrijfnummer is gebeurd kan het zijn dat leerling 202 een site online heeft en leerling 939 niet. Veiligheidshalve willen we elke nummer downloaden. Ook al staat er niks in de map.
Hoe kan ik vanop een linuxbak (server of thuis) ervoor zorgen dat hij alles van leerling.naamschool.net/???/ kopieert naar een lokale schijf? Ik kan (denk ik) met wget -R werken, maar dit lijkt mij daarvoor niet handig. FTP downloaden van het subdomein werkt ook niet (geen rechten genoeg)...
Reden : de school wilt het hele leerlingarchief op een andere naam zetten (en andere server) omdat het one.com account bijna volloopt (elke leerling krijgt 10mb). One.com zijn helpdesk is reeds gecontacteerd, doch daar krijg ik geen gehoor...
- meon
- Administrator
- Berichten: 16609
- Lid geworden op: 18 feb 2003, 22:02
- Twitter: meon
- Locatie: Bree
- Uitgedeelde bedankjes: 564 keer
- Bedankt: 759 keer
- Contacteer:
Zonder FTP-toegang zul je altijd niet-gelinkte bestanden missen.
Maar je kan een HTML-pagina maken waar domweg een link naar elk van van die sites. Aangezien ze genummerd zijn zou ik dat snel in Excel doen (met doorvoeren) en dan met hogergenoemde HTTrack rippen van het net.
Maar je kan een HTML-pagina maken waar domweg een link naar elk van van die sites. Aangezien ze genummerd zijn zou ik dat snel in Excel doen (met doorvoeren) en dan met hogergenoemde HTTrack rippen van het net.
-
- Elite Poster
- Berichten: 3868
- Lid geworden op: 20 maa 2004, 20:10
- Uitgedeelde bedankjes: 95 keer
- Bedankt: 48 keer
Dude ... ga je nu weer een topic hijacken ? Je topic is gemoved ...bolleke64 schreef:ik zoek gps software op mijn carputer
wie o wie?
-
- Moderator
- Berichten: 19634
- Lid geworden op: 07 nov 2006, 12:11
- Twitter: kriskenbe
- Locatie: Massemen - 91WET0
- Uitgedeelde bedankjes: 1863 keer
- Bedankt: 1003 keer
- Contacteer:
Dat zou idd een mogelijkheid zijn die ik nog niet overwogen heb. Maar gemakkelijkheidshalve wou ik direct vanaf de dedicated server werken zodat niet eerst alles naar mijn thuis moet gedownload worden, en daarna geupload naar de server. Dat niet-gelinkte bestanden niet meegenomen worden is geen probleem, we beseffen ook dat er geen andere keus is. Tenslotte was het de bedoeling om een HTML site daar te testen, niet om dit te gebruiken als online opslagruimte.meon schreef:Zonder FTP-toegang zul je altijd niet-gelinkte bestanden missen.
Maar je kan een HTML-pagina maken waar domweg een link naar elk van van die sites. Aangezien ze genummerd zijn zou ik dat snel in Excel doen (met doorvoeren) en dan met hogergenoemde HTTrack rippen van het net.