Pagina 1 van 1
Harde schijf in 2007 gemiddeld 600 GB
Geplaatst: 17 feb 2004, 07:22
door Blue-Sky
<img src="http://www.userbase.be/forum/images/portal/hardeschijf.jpg" border="0" align="left"> Harde schijf in 2007 gemiddeld 600 GB, de standaard desktop-pc zal in 2007 over een harde schijf met een opslagcapaciteit van 500 tot 600 GB beschikken.
"Door de NetworkWorld-redactie woensdag, 11 februari 2004
De groei in opslagland gaat onverminderd door. Wie nu een nieuwe pc koopt, krijgt een harde schijf met een opslagcapaciteit van ergens tussen de 20 en 120 GB, maar over drie jaar zal dit uitkomen op tussen de 500 en 600 GB. Deze verwachting werd uitgesproken door Mark Greenen van marktonderzoeker TrendFocus tijdens een bijeenkomst van de Disk Drive Equipment and Materials Association (IDEMA), afgelopen maandag in de Verenigde Staten. "
lees hierover meer
Bron: E Business IT
Geplaatst: 19 feb 2004, 12:53
door grote smurf
Ik vroeg me af hoelang het zal duren om zo een grote harde schijf te defragmenteren
Geplaatst: 19 feb 2004, 13:34
door meon
Tegen die tijd gebruikt iedereen WinFS dat veel minder last heeft van fragmentatie ... Hoop ik
Geplaatst: 19 feb 2004, 13:50
door Djorre
Misschien ben ik fout, ik heb de indruk dat ze de schijven sneller en meer GB laten spuwen maar dat het aantal crashes ook groter worden.
Geplaatst: 19 feb 2004, 17:09
door ubremoved_539
Hoe groter de schijf... hoe slechter de performance
Het aantal schijven in een serverconfiguratie is belangrijker.
Geplaatst: 19 feb 2004, 17:21
door NuKeM
r2504 schreef:Hoe groter de schijf... hoe slechter de performance
Het aantal schijven in een serverconfiguratie is belangrijker.
Met hoe groter bedoel je waarschijnlijk de diameter (heeft een grote doorslag op het aantal rpm als ik correct ben) Ook is dacht ik het aantal platters van belang als het over de performance gaat
Wat ook wel waar is (en dan gaat het om de opslag kwantiteit van de schijf) is dat er meer data per oppervlakte éénheid zal opgeslagen moeten worden waardoor de lees- en schrijfhardware erg nauwkeurig zal moeten zijn om op zo'n kleine oppervlakte toch betrouwbaar en snel te kunnen lezen/schrijven. Indien deze nog niet op punt staat zal dit de performance van de schijf zeker parten spelen.
Het aantal schijven is geen waardeschaal tot een goede serverconfig (12 schijven in RAID 0 in een datacenter zou een goeie grap zijn bvb) , wel de gebruikte redundatie techniek en de kwaliteit van de gebruikte hardware (MTBF ofte meantime between failure bvb).
Geplaatst: 19 feb 2004, 17:32
door crapiecorn.
reiserFS geen defragmentatie nodig, ik las ook juist op bartendavid.be dat de nieuwe 1 terra schijf uit is, wel extern via wirefire of usb 2.0, ik heb nog niet niet naar het prijskaartjes gekeken
Geplaatst: 19 feb 2004, 17:39
door NuKeM
Voor NTFS was er zogezegd ook geen defragmentatie nodig
(daarom ook zat er in NT 4.0 bvb geen defragmenter).
Ik ben toch eens benieuwd hoelang die nieuwe technieken het zullen volhouden
Geplaatst: 19 feb 2004, 19:17
door gamefreak977
Geplaatst: 19 feb 2004, 19:21
door Sub Zero
crapiecorn. schreef:reiserFS geen defragmentatie nodig, ik las ook juist op bartendavid.be dat de nieuwe 1 terra schijf uit is, wel extern via wirefire of usb 2.0, ik heb nog niet niet naar het prijskaartjes gekeken
Ik had er zo es ooit eentje gezien die er sterk op lijkt en dat was ook 1TB, maar in feite waren het 5 schijven van 200GB elk dacht ik. Het kan zijn dat ik mis ben, maar het leek er toch sterk op.
Cheers
Geplaatst: 20 feb 2004, 14:15
door ubremoved_539
NuKeM schreef:r2504 schreef:Hoe groter de schijf... hoe slechter de performance
Het aantal schijven in een serverconfiguratie is belangrijker.
Met hoe groter bedoel je waarschijnlijk de diameter ...
Nee, de effectieve capaciteit. Met betrekking tot je 12 schijven is het namelijk wel beter 12 schijven van 50 GB te hebben, dan eentje van 600 GB. (RAID 0 is natuurlijk wel niet aangeraden voor kritische data)
Door het feit dat je meerdere schijven hebt kan je controller de data simultaan lezen van de verschillende schijven in tegenstelling tot een enkele schijf. Je kan dit het best vergelijken met parallel versus serieel.
Geplaatst: 21 feb 2004, 11:02
door gamefreak977
Ik zocht net iets op over RAID kom ik toch dit wel tegen zeker:
De zotste soorten enclosures die ik al gezien heb.
http://www.acnc.com/02_03_jetstor_iii_fc.html
da's de link voor de zotste enclosure van al degene die er staan.
ff wat info:
Het word verbonden met je PC door 2Gbit fiber, goede fiber maakt het mogelijk dat de PC (zeg maar server) en die enclosure een 10tal kilometer van elkaar verwijderd zijn.
Is uitgerust met een combinatie van RAID technologieen.
...
ZOT GEWOON
Geplaatst: 21 feb 2004, 11:50
door Akira
die 1TB hdd had ik al langer gezien, zeg nu zelf 5kg voor een externe hd is wel veel
en gamefreak: die enclosure ziet er zot uit als ge alle bays volzitten hebt met 146GB 10.000rpm
alles zal groter worden en sneller, neem nu de internet verbindingen (VDSL enz...) zullen het ook mogelijk maken om films in HQ te sharen aan een hoge snelheid en als die nieuwe standaard van dvd komt (27GB) dan wordt het helemaal zot! aanvankelijk zullen al die vernieuwingen wel stukken van mensen kosten maar da zal wel na een jaar of 4 anders zijn!
de computer int geheel evolueerde sneller dan de auto, laat staan de mens! de computer is nog niet perfect maar da zal wel nog meer dan 10 jaar duren!
**wacht met veel verlangen naar de toekomst!**
Geplaatst: 21 feb 2004, 20:14
door gamefreak977
me 2
Computer zal nooit perfect zijn, want iets al perfect bestaat niet alles kan altijd beter
Ze zullen ze blijven kleiner, handiger, functioneler, ... maken.
Binnen een milenium zou het kunnen dat alle mensen cyborg's zijn.
stel je dit voor:
Menselijke hersennen vol met chips, credit cards, GSM, school zullen allemaal overbodig zijn.
Alle kennis die je nu op school leert kan worden ingeplant.
Bankgegevens allesg gewoon ingebouwd in de hersennen, ze zijn daar al beetje mee bezig maar 't staat nog maar in de kinderschoenen (wat zeg ik ? zeg maar babyschoentjes).
Uiteindelijk is de mens gedoemt om zichzelf uitteroeien, we zouden onszelf zoveel kunnen robotiseren dat er uiteindelijk niets meer van de mens zelf overblijft.
Ik weet et geflipte ideeen van mij, gues I saw to much sc-fi movies
Geplaatst: 24 feb 2004, 12:15
door PHO
r2504 schreef:Hoe groter de schijf... hoe slechter de performance
Niet helemaal correct. Hoe groter de HD, hoe meer data er in het buitenste gedeelte zit op de HD. Dat betekent dat je veel minder koppenbewegingen nodig hebt om de juistte data te vinden, wat resulteert in hogere access time en doorvoersnelheid. Elke HD benchmark zal data schrijven/lezen ad random op de HD. Daaruit zal blijken dat de gemiddelde performance hoger zal zijn, naarmate de capaciteit toeneemt, bij voor de rest identieke fysieke schijven.
Geplaatst: 24 feb 2004, 17:33
door saxgod
gamefreak977 schreef:me 2
Computer zal nooit perfect zijn, want iets al perfect bestaat niet alles kan altijd beter
Ze zullen ze blijven kleiner, handiger, functioneler, ... maken.
Binnen een milenium zou het kunnen dat alle mensen cyborg's zijn.
stel je dit voor:
Menselijke hersennen vol met chips, credit cards, GSM, school zullen allemaal overbodig zijn.
Alle kennis die je nu op school leert kan worden ingeplant.
Bankgegevens allesg gewoon ingebouwd in de hersennen, ze zijn daar al beetje mee bezig maar 't staat nog maar in de kinderschoenen (wat zeg ik ? zeg maar babyschoentjes).
Uiteindelijk is de mens gedoemt om zichzelf uitteroeien, we zouden onszelf zoveel kunnen robotiseren dat er uiteindelijk niets meer van de mens zelf overblijft.
Ik weet et geflipte ideeen van mij, gues I saw to much sc-fi movies
dit duurt geen millenium meer hoor, over 10 tot 50 jaar is dit er.
http://www.countdown.org/end_articles/m ... mputer.htm
http://www.ele.uri.edu/Courses/ele482/S03/Thomas_2.pdf
http://www.nature.com/cgi-taf/DynaPage. ... nn947.html
http://www.google.be/search?q=connectin ... %7Clang_nl