software gezocht.

Hier horen vragen over google, irc, nieuwsgroepen, e-mail enz....
Plaats reactie
hollebollegijs
Elite Poster
Elite Poster
Berichten: 1577
Lid geworden op: 01 feb 2006, 11:24

een vriend van mij zoekt een gebruiksvriendelijke applicatie(freeware) om in één keer foto's van een website of van een bepaald deel van een website ineens te downloaden.
Het zijn mijn laatste weken bij Belgacom. Ik ga een andere lucht opsnuiven. Byebye Telecomworld.
kUmbro
Premium Member
Premium Member
Berichten: 468
Lid geworden op: 05 aug 2006, 12:05
Uitgedeelde bedankjes: 34 keer
Bedankt: 3 keer

DownThemAllextensie voor firefox is gratis en kan dit. Ook pdf bestanden etc. Ge kunt ook zelf filters vastleggen voor bestanden die standaard niet zijn toegevoegd.
ubremoved_983
Elite Poster
Elite Poster
Berichten: 3868
Lid geworden op: 20 maa 2004, 20:10
Uitgedeelde bedankjes: 95 keer
Bedankt: 48 keer

man wget
Gebruikersavatar
deej
Elite Poster
Elite Poster
Berichten: 3322
Lid geworden op: 09 dec 2002, 21:14
Locatie: Een boerengat nu met VDSL2!
Uitgedeelde bedankjes: 19 keer
Bedankt: 4 keer

kUmbro schreef:DownThemAllextensie voor firefox is gratis en kan dit. Ook pdf bestanden etc. Ge kunt ook zelf filters vastleggen voor bestanden die standaard niet zijn toegevoegd.
+1. Ik gebruik het ook heel intensief, aanrader!
hollebollegijs
Elite Poster
Elite Poster
Berichten: 1577
Lid geworden op: 01 feb 2006, 11:24

thx.
hij gebruikt flock, maar vermits dit gebaseerd is op firefox, zal dit ook wel lukken.
Het zijn mijn laatste weken bij Belgacom. Ik ga een andere lucht opsnuiven. Byebye Telecomworld.
toettoet
Plus Member
Plus Member
Berichten: 172
Lid geworden op: 20 aug 2007, 18:20

httrack
vroeger vaak gebruikt om alle images te leechen van imageboards
werkt lekker ^^
en ge kunt ingeven hoe diep em moet gaan (hoeveel links van een link in de pagina dat je opgeeft)

en tis gratis
wwdj
Member
Member
Berichten: 93
Lid geworden op: 18 dec 2007, 17:07

ditCh schreef:man wget
:twisted:
Gebruikersavatar
Ken
Elite Poster
Elite Poster
Berichten: 4229
Lid geworden op: 04 apr 2005, 23:18
Locatie: België
Uitgedeelde bedankjes: 47 keer
Bedankt: 94 keer

Inderdaad, wget is de beste tool daarvoor :-)

Internet = Proximus Business Flex Fiber 1000/100 & back-up Telenet Business Fibernet 300/30 Mbps
Fixed phone = OVH VoIP Entreprise
Mobile= Destiny Mobile Unlimited + Samsung S21
TV = FTA IPTV + Netflix
Network = 100% MikroTik powered
Car = Tesla Model 3 (Team blue)
krisken
Moderator
Moderator
Berichten: 19634
Lid geworden op: 07 nov 2006, 12:11
Twitter: kriskenbe
Locatie: Massemen - 91WET0
Uitgedeelde bedankjes: 1863 keer
Bedankt: 1003 keer
Contacteer:

Ik zit eigenlijk met een soortgelijk probleem...

Een school waar een collega van mij lesgeeft heeft bij one.com een pakket afgenomen, inclusief domeinnaam.

Nu krijgen verschillende leerlingen daar enkele basislessen HTML, en moeten ze hun resultaat online zetten als leerling.naamschool.net/leerlingnummer/. De meeste sites zijn een paar html files, inclusief wat jpg's en gif's en af en toe een mp3.

Enig probleem : welke leerling heeft de lessen HTML gevolgd, en heeft aldus zijn site online gezet... Daar alles volgens inschrijfnummer is gebeurd kan het zijn dat leerling 202 een site online heeft en leerling 939 niet. Veiligheidshalve willen we elke nummer downloaden. Ook al staat er niks in de map.

Hoe kan ik vanop een linuxbak (server of thuis) ervoor zorgen dat hij alles van leerling.naamschool.net/???/ kopieert naar een lokale schijf? Ik kan (denk ik) met wget -R werken, maar dit lijkt mij daarvoor niet handig. FTP downloaden van het subdomein werkt ook niet (geen rechten genoeg)...

Reden : de school wilt het hele leerlingarchief op een andere naam zetten (en andere server) omdat het one.com account bijna volloopt (elke leerling krijgt 10mb). One.com zijn helpdesk is reeds gecontacteerd, doch daar krijg ik geen gehoor...
Gebruikersavatar
meon
Administrator
Administrator
Berichten: 16609
Lid geworden op: 18 feb 2003, 22:02
Twitter: meon
Locatie: Bree
Uitgedeelde bedankjes: 564 keer
Bedankt: 759 keer
Contacteer:

Zonder FTP-toegang zul je altijd niet-gelinkte bestanden missen.

Maar je kan een HTML-pagina maken waar domweg een link naar elk van van die sites. Aangezien ze genummerd zijn zou ik dat snel in Excel doen (met doorvoeren) en dan met hogergenoemde HTTrack rippen van het net.
bolleke64
Pro Member
Pro Member
Berichten: 281
Lid geworden op: 29 mei 2008, 17:11
Uitgedeelde bedankjes: 9 keer
Bedankt: 13 keer

ik zoek gps software op mijn carputer
wie o wie?
Voor al uw vragen op RF en PA gebied. Intergratie van Multimedia toepassingen in binnen en buitenland.
ubremoved_983
Elite Poster
Elite Poster
Berichten: 3868
Lid geworden op: 20 maa 2004, 20:10
Uitgedeelde bedankjes: 95 keer
Bedankt: 48 keer

bolleke64 schreef:ik zoek gps software op mijn carputer
wie o wie?
Dude ... ga je nu weer een topic hijacken ? Je topic is gemoved ...
krisken
Moderator
Moderator
Berichten: 19634
Lid geworden op: 07 nov 2006, 12:11
Twitter: kriskenbe
Locatie: Massemen - 91WET0
Uitgedeelde bedankjes: 1863 keer
Bedankt: 1003 keer
Contacteer:

meon schreef:Zonder FTP-toegang zul je altijd niet-gelinkte bestanden missen.

Maar je kan een HTML-pagina maken waar domweg een link naar elk van van die sites. Aangezien ze genummerd zijn zou ik dat snel in Excel doen (met doorvoeren) en dan met hogergenoemde HTTrack rippen van het net.
Dat zou idd een mogelijkheid zijn die ik nog niet overwogen heb. Maar gemakkelijkheidshalve wou ik direct vanaf de dedicated server werken zodat niet eerst alles naar mijn thuis moet gedownload worden, en daarna geupload naar de server. Dat niet-gelinkte bestanden niet meegenomen worden is geen probleem, we beseffen ook dat er geen andere keus is. Tenslotte was het de bedoeling om een HTML site daar te testen, niet om dit te gebruiken als online opslagruimte.
Plaats reactie

Terug naar “Algemeen Internet-Gebruik”