Prof. Dr. Sinsi
|
Sabit Diskler Hakkında Kapsamlı Bilgi
Arabirim Standartlarına Yakından Bakalım
Disk Arabirim Standardı denen kavram, bir bilginin, bilgisayarınızın işlemcisinden, diskin üzerine yazılıncaya kadar alacağı yolları ve aktarım metotlarını içeren kurallar bütünüdür Bu kurallar verinin geçeceği kabloların fiziksel tanımlamalarından tutunda, disklerin ne denli sağlıklı olduğunu belirleyecek olan elektronik koruma devrelerine kadar her yerde düzenlemeler yapar
PC dünyasında tanıtılmış olan en eski standartlardan biri de IDE’dır (Integrated Drive Elecktronics - Bağlı Cihazların Elektronik Yapısı) Bu arabirim standardı günümüze kadar oldukça değişti IDE standarttaki bugün kullanılan temeller 1986 yılında Compaaq ve Western Digital firmalarınca belirlendi IDE’ın getirdiği temel yenilik hard disklerin kontrol çiplerini hard disklerin kendi üzerine monte edilmesini sağlamak ve aktarımdan sorumlu olan çipleri de başka bir kart ya da anakart üzerinde taşınmasını sağlamaktı IDE aslında bir kavram olarak ortaya çıkmıştı Yani diski ve kontrol mekanizmalarını ayırma girişimi, bu iki şirketin fikridir Diski ve kontrol ünitelerinin elektronik olarak nasıl düzenleneceği ise ATA (AT Attachement - AT Eklentisi) adlı standardın ortaya çıkmasıyla belirlenmiştir ATA tüm cihazların birbiriyle uyumlu çalışması için nasıl üretileceğini anlatan bir tür teknik başvuru kılavuzu gibidir IDE’den farkı, IDE standardı bir tür hukuki ve buluşun nasıl kullanılacağına dair resmi kurallar bütünü gibi görülebilir
Daha önce üretilen bilgisayarlarda, hard disklerin motor ve kafa mekanizmalarını yöneten çipler bilgisayarın üzerinde bulunuyordu Bu sebeple de bilgisayarların üretim maliyeti artıyordu Üstelik bu sayede her disk üreticisi kendi sürücüsünün performansını, üretim tekniklerini geliştirerek arttırabiliyordu Bu sayede ortaya çıkan rekabet ortamında performans ve kapasite hızla artmaya başladı 1986 yılında diskler IDE sayesinde 528 MB’yi aşmış ve aynı anda iki sabit diskin kullanımı mümkün hale gelmişti 1993 yılında Western Digital ve Quantum firmaları EIDE (Enhanced IDE - Geliştirilmiş IDE) standardını piyasaya tanıttılar Bu yeni standart sayesinde IDE kablosu üzerinde 16 6 MB’lik bir veri aktarımı ve disk başına 137 GB’lik bir kapasitenin kullanılması mümkün kılındı
Bu standartların hepsi disklerin nasıl yönetileceği konusunda tanımlamalar yapmışlardı Fakat standartların içinde yeni çıkan bir cihaz için cihazı nasıl standarda adapte edileceğine dair bir bölüm yoktu Bu eksiklik CD-ROM’ların ortaya çıkması ve gelişmeye başlamasından sonra giderilen diğer bir detaydır 1992 sonunda ATAPİ (ATA Pack Interface - ATA Paket Arabirim) adlı yeni bir eklentiyle CD-ROM’lar da diskler gibi kullanılır oldu Bugün bu elektronik eklentiler sayesinde CD-ROM sürücüleri, CD-RW’leri ve DVD’leri kullanabiliyoruz
EIDE, içinde aktarım sırasında verilerin nasıl ve ne hızla gönderileceğini belirleyen dört adet aktarım modu vardır Bunlar PIO (Programmed Input/Out - Programlı Giriş/Çıkış Kuralları) olarak adlandırılır PIO mod saniyede 0 saniyede 3,3MB’lik bir aktarıma izin verir Diğer modlar, PIO ½, ¾ ise sırasıyla, 5,2 MB; 8,3 MB; 11,1 MB ve 16,6 MB’lik veriyi bir saniye içinde disklerden işlemciye aktarılabilir
Diğer bir merak edilen konu da Ultra DMA’dır DMA (Direct Memory Access - Doğrudan Hafızaya Erişim) diskin üzerinden okunan verilerin işlemciye hiç uğramadan, doğrudan anakartın kontrol çipleri sayesinde hafızaya yazılması işlemidir Bu sayede işlemci diskten gelen ve diske giden verileri yönetmek için çaba harcamaz Veriler işlemciye uğramadan doğrudan hafızaya yazılmış, ya da hafızadan okunmuş olur DMA’nın da farklı modları vardır Bu modlar sayesinde DMA yöntemiyle işlemcinin diskler tarafından kullanım oranı %90′lardan %5′lere iniyor Bu da işlemcinizin daha farklı işlerle uğraşarak daha verimli olmasını sağlıyor
IDE standardı konusunda kafaları karıştıran şey bir çok ismin ortalıkta gezmesidir: ATA, Ultra ATA, DMA, Ultra DMA, Fast ATA, Fast ATA-2, ATA-33… Oysa bu ve benzeri isimler, birçok disk firmasınca aynı veri aktarım modu ve hızı içi konulmuş farklı isimlerden başka bir şey değildir Örneğin aynı aktarım modu için bir firma ATA-2 derken diğer firma başka bir isim söyleyebilir
8 4 GB Limiti Nedir ?
PC’ler ilk tasarlandığında gerek diskler gerekse hafıza ve diğer kısımlara erişmek için bir takım adresleme yöntemi geliştirdiler Bu yöntem belli sayıda ve düzende rakamla diskler ya da hafızada bulunan bir bölümü anlatmaya yarıyordu Örneğin XXXX gibi bir rakam hafızada tek bir yerin adresiydi Fakat bu rakamlar (adresler) belli uzunlukta ve formadaydılar Bu rakamlar track’ler, silindirler ve sektörlerdeki her bölgeyi gösterebiliyordu Tabii ki belli uzunlukta oldukları için belli bir kapasiteyi işaret edebiliyorlardı Maalesef ATA ve BIOS’daki adresleme yöntemleri birbiriyle uyumlu çalışacak şekilde dizayn edilmemişlerdi Kısaca BIOS’daki adres formuyla ATA üzerindeki adres formu birbirine uymuyordu Bu problem adreslerin birbirine bir tür tercüme (BIOS’da yapılan bir işlemdir) edilmesiyle mümkün oldu Fakat bu tercüme işleme daha önce bahis ettiğimiz sayıların belli uzunlukta ve formda olmasını gerekliliğini göz önünde bulundurduğunda kendince belli kurallar koyar Böylece adreslerin çevrilmesi işlemi herhangi bir karışıklığa meydan verilmeden yapılır Bu kurallardan biri de disklerin kapasiteleridir 1997′den önceki BIOS’lar tercüme işlemini yaparken 8 4 CB’lik disklerden daha fazlasının adresleyecek uzunluktaki rakamları (adresleri) kabul etmiyordu Bu sebeple bu prosedür tekrar gözden geçirildi Şu anki sınır 137 GB olarak belirlenmiş durumda 8 4 GB’lik sınırlamadan önce PC dünyasında 528 MB ve 4 2 GB sınırları vardı Bu problemler de aynı nedenden kaynaklanıyordu Fakat teknolojinin gelişmesi ve kapasitelerin artması nedeniyle diskler büyüyor ve BIOS’lar onlara ayak uydurmak zorunda kalıyorlar
SCSI Arabirimi
SCSI de EIDE gibi veri akışını düzenleyen bir arabirim standardıdır Fakat SCSI sadece depolama cihazlarını değil tarayıcı ve printer gibi çevre birimlerini de kontrol edebilir Bu standartta kontrol işlemlerini yapan çipler yerine adaptasyon işlemini yapan çipler vardır Adaptasyon işlemi sayesinde işlemci SCSI üzerinden bağlı olan cihazları bilgisayarın neredeyse anakartındaki temel bir çip gibi bilgisayarın bir parçası olarak görür Her SCSI cihazı kendi kendini kontrol eder Bu yüzden ISA ve PCI genişletme yarıklarına takılan SCSI kartlarına SCSI adaptörü denir
Bütün SCSI cihazları bir zincir şeklinde, birbirine bağlanır Zincir üzerinde yer alan adaptör kartı da dahil olmak üzere her cihaz bir ID (Tanıtım) numarası alır Bu numaralar farklı cihazları temsil eder Geleneksel SCSI adaptörlerinde ID numaraları 0 ile 7 arasında değişir 0, ID numarasına sahip cihaz boot cihazıdır Yani boot işlemi kesinlikle o numaralı cihazdan yapılır Daha sonra diğer takılı cihazlar, onlara atanan ID numaralarına göre sıra ile çalıştırılırlar Geleneksel SCSI kartları 7 adet çevresel cihazı (printer, hanrd disk, tarayıcı vb) kontrol edebilir Eğer çift kanallı bir cihazınız varsa bu adaptör kartla 15 adet çevre cihazını kontrol edebilirsiniz Üstelik SCSI tüm bu cihazlarla son derece yüksek hızda iletişim kurar
SCSI Çeşitleri ve SCSI’nin Evrimi
1986 yılında çıkan ilk SCSI-1 standardı artık kullanılmamakta Bu eski standartta 3 MB/saniye gibi son derece yavaş bir hızda iletişim kurulabilmekteydi Bu teknolojide veriler asenkron olarak gönderilirdi Her seferinde 8 bitlik bir paket gönderilen veriyolu kullanıldı
SCSI-2 standardıyla beraber bazı teknik değişiklikler oldu Öncelikle veri aktarım hızı 10 MB/saniye’ye çıktı Ayrı bir “P” kablosuyla birlikte veriler 16 ya da 32 bitlik paketler halinde gönderilmeye başlandı Bu kablo asıl kablonun yanında bir ek kablo gibi düşünülebilir Bu tip adaptör standardına, Wide SCSI (geniş SCSI) adı verildi Böylece veriler daha geniş bir veri yolu üzerinden gönderilebiliyordu Bu iki gelişme de Fast Wide SCSI (Hızlı Geniş SCSI Standardı) altında toplantı SCSI-2 standardından sonra gelen standartlar biraz kafa karıştırıcıdır
SCSI-3 adındaki yeni standart pek çok şeyi değiştirdi Bunlardan birincisi SCSI-3 standardı, Fast SCSI ve Fast Wide SCSI standartlarını kullanmak için ikinci bir kablo kullanma gerekliliğini ortadan kaldırdı Diğer bir gelişme de SCAM (SCSI Confıguration Architecture Magically) teknolojisidir Bu teknoloji sayesinde takılan uyumlu cihazlar otomatik olarak tanınıyor ve onlara bir numara veriliyordu Bu da Plug-n-Play teknolojisine oldukça benzer bir teknolojidir Böylece kullanıcılar elle numara verme işinden ve kabloları sonlandırma işinden kurtulmuş oldu
Ultra SCSI (Fast-20 olarak da bilinir) olarak adlandırılan standart ise SCSI-2 standardına yapılmış bir tür eklemedir Bu standartla birlikte sinyaller 20 MHz’lik bir hızda ve 16 bit’lik olarak gönderilmeye başlandı Fakat bu hız artışı nedeniyle bazı kısıtlamalar geldi Örneğin iki SCSI cihazı arasında kullanabileceğiniz en uzun kablo 1,5 metre ile sınırlandırıldı Ultra SCSI-2 olarak adlandırılan ikinci standart ise kablodan 40 MHz’lik bir frekansta veri aktarabiliyordu Bu sayede potansiyel olarak bir SCSI kablosundan saniyede 80 MB’lik veri aktarılabilir Ultra SCSI-2 standardıyla beraber bu kablo sınırlaması da ortadan kaldırıldı Kablo üzerinde kullanılan voltaj düşürülüp gereğinde adaptör kart tarafından değiştirilebilir hale geldi Bu sayede adaptör kart, 16 cihazı uzun kablolar kullanıldığı halde destekleyebilir Üstelik bu tür bir voltaj tekniği sayesinde, kablo üzerinde iletilmekte olan verilerin manyetik alanlardan etkilenmesi olasılığı azaltılmış oldu Bu teknolojiye LVD (Low Voltage Diferential Signalling - Düşük Değiştirilebilir Voltajlı Sinyal İletimi) denildi
SCSI tamamen önceki standartlarla uyumludur Kısaca bir SCSI-1 cihazı, SCSI-2 adaptör kartında çalıştırabilirsiniz Tabii ki kullandığınız adaptör kartla aynı standartta olan bir cihaz kullanırsanız, en fazla verim verecek sonucu elde edersiniz SCSI çoğunlukla server’larda kullanılan bir arabirim oldu Bunun ilk nedeni hız diğer nedeni de son kullanıcıların SCIS ayarlarını öğrenememesi oldu Bu sebeple masaüstü bilgisayarlarda kullanım rağbet görmedi Fakat bu standardın server’lardaki üstünlüğü yeni bir arabirim tarafından tehdit altında: Fiber Kanal Teknolojisi Bu yeni arabirim inanılmaz hızlara ulaşmakta Paralel veri gönderebildiği zaman Fiber Kanal cihazları saniyede 400 MB’lik veri yollayabiliyor Eğer tek taraflı veri yollayacak şekilde cihazlarınızı kurarsanız, o zamanda saniyede 100 MB aktarabiliyorsunuz Üstelik SCSI’nin kablo uzunluğuna getirdiği kimi kısıtlamalar, Fibre Kanal’da olmayacak Bakır kablolarla cihazlar arasında 30 metrelik, fiber kablolarla da 10 km’lik bir mesafeden veri aktarılabilir FCAL denilen küçük kablo düzümleri sayesinde tek bir bilgisayara yüzlerce çevre birimi eklenebilecek Bu sayede oluşacak olan veri aktarım hızı ve güvenirliliğini gelin, siz düşünün
Temel standartlar SCSI-1 ya da SCSI-2 gibi isimler alıyorlar Diğer SCSI çeşitleri bu SCSI temellerinin üzerine inşa edilmiş diğer standartlar Fark edebileceğiniz diğer bir nokta Wide (geniş) SCSI çeşitlerinin kullandığı veri paketlerinin uzunlukları 16 bit uzunluğunda Bu da bu tip standartları destekleyen SCSI adaptörlerine 15 adet cihazın bağlanmasını mümkün kılıyor Bir istisna olarak Ultra 2 LVD (Düşük Değişken Voltaj Teknolojili) SCSI adaptörleri kullandıkları kablolarda daha farklı bir elektrik sinyali kullandıkları için normal kablo üzerinde de 16 bitlik veri paketlerini gönderebiliyorlar Bu da onları hem hızlı yapıyor hem de 15 adet cihazı aynı anda kullanabilmelerini sağlıyor Fast kelimesinin geçtiği standartlarda, sinyal gönderme hızı artıyor Tabii Ultra2 LVD SCSI yine bir istisna
Raid Teknolojisi Nedir ?
Birçok üst - uç sistem, özellikle de server’lar RAID (Redundant Array of Inexpensive Disks - Fazladan Kullanılan Ucuz Disk Dizisi) teknolojisini kullanmaktadır Bu teknolojiyle bu tür sistemler hem güvenilirlik hem kullanışlılık konusunda önemli ilerlemeler kaydediyor Aslında bu teknolojiyi oluşturan basit fikri şu: verilerinizi paralel olarak çalışan diskler üzerinde tutabilirsiniz Böylece bilgiler birden çok disk üzerinde sanki birbirinin birer kopyasıymış gibi depolanırlar Peki bunun faydaları nelerdir?
Bu tür bir teknoloji iki büyük avantaj getiriyor Birincisi bu teknolojinin kullanıldığı sistemler çok daha fazla performans veriyor Örneğin dört adet diskin paralel olarak bağlandığı bir RAID düşünelim Bu disklerin aslında hepsi tek bir bilginin dört kopyasını tutuyor olsun Siz diskinizden bir veri okumak istendiğinizde bu bilgi birinci kopyayı taşıyan birinci diskten okunmaya başlansın İşlemin uzun sürdüğünü ve bu arada başka bir bilgiye daha ihtiyacınız olduğunu düşünelim O zaman diskinizden diğer bir bilgiyi daha isteyeceksiniz O anda RAID’i kontrol eden mekanizma bu bilgiyi ikinci kopya taşıyan diğer diskten isteyecektir Böylece birinci disk ve ikinci disk, önceki okuma işlemlerini kendi aralarında paylaşmış olurlar Bu da performansın neredeyse ikiye katlanması demektir Diğer önemli avantaj güvenlik unsurudur Eğer birbirinin kopyalarını tutan bu disklerden biri bozulursa diğeri işleme devam edebilir Ve daha sonra bozulan diskin yerine yeni bir disk konarak diske orijinal diskin bir kopyası alınabilir Bu da RAID kullanan server’ların çökmesinin ya da verileri kaybetmesinin imkansız olduğu anlamına geliyor Disklerin farklı zamanlarda bozulmasını sağlamak için ise (tabii ki hiç bozulmadıkları takdirde daha sevindirici) farklı MTBF değerine sahip diskler kullanılır RAID teknolojisi kullanılan disk sayısı ve kopyalama teknolojileri itibariyle farklı seviyelere sahiptir Örneğin bir RAID’de bilgilerin bir kısmı bir diskte kalan kısımları farklı disklerde saklanabilir (seviye o); fakat bu yalnızca performanstan kazanç sağlamaktadır En fazla kullanılan ve en yüksek performans - güvenilirlik sunan seviye RAID5 teknolojisidir Bu teknolojide veriler, iki ya da daha fazla çift disk üzerine yazılır Her çift sanki tek bir diskmiş gibi kullanılır Depolanması gereken verilerin (genelde 1/3′ü) birinci çifte; kalan 1/3′ü ikinci çift diske ve en son kalan 1/3′lük kısım üçüncü çifte kaydedilir Her çift kendi arasında birbirinin kopyasını tutar Buna aynalama (Mirroring) de denir Böylece disk çiftlerinde birinde problem olursa, çiften içindeki disk, işleme devam edebilir ve bilgileri farklı kısımlarının farklı disklerde saklanıyor olması son derece yüksek bir hız sağlar
GMR Teknolojisi Nedir ?
IBM’in geliştirmekte olduğu GMR teknolojisi oldukça kuvvetli ve büyük disk kafalarını kullanarak, inanılmaz disk kapasitelerine ulaşılabilmekte Bu teknoloji sayesinde 2001 yılında 6 cm2 ‘lik bir alanda 2,5 GB’lık bir kapasiteye ulaşılacak, aynı teknoloji 2004 yılında aynı büyüklükteki bir yüzeye 8 GB’lık veriye yazabilecektir Bu teknolojiden elde edilen veriler IBM’de ilk meyvelerini verdi Şirket geçen yılın sonunda 25,5 GB’lık bir disk sürücüyü piyasaya sundu Bu teknolojinin temeli kullanılan maddelerde yatıyor MR ismi verilen alaşımda elektronlar, manyetik bir etki altındayken daha rahat dolaşıyor Bu da atomlarla çarpışmaları arttırıyor Bir madde elektronlar rahat dolaşıyorsa o maddenin manyetik geçirgenliği düşer GMR alıcıları bu farkı algılıyor ve elektronlardaki quantum hareketlerini açığa çıkarıyor Atomların çevrelerinde dönen elektrik iletecek olan elektronlar belli bir yöne dönerken manyetik direnç gösteren elektronlar bu yön yerine bağımsız olarak atom etrafında dönüyor Bu da sensörler tarafından algılanarak bitler olarak kayıt için kullanılıyor
Şu anki GMR diskleri, 6 cm2′lik bir alanda 1GB tutuyor fakat araştırmalar halen devam etmekte Asıl önemli olan bu teknolojinin kullanıldığı kafaların 1992 yılından beri IBM’in disklerinde kullanılıyor olması Bu kafalar mikronların yüzde bir ya da ikisi seviyesindeki alanlar için duyarlılığa sahipler Bu da bir milimetrenin binde ikisi kadar bir hareketle dahi kafa verileri algılayabiliyor Daha küçük ve daha kapasiteli disklerin üretilmesi bu sayede mümkün oluyor Üstelik daha hafif ve daha sağlam mekanizmalarla Yine bu teknolojide diskin dönme hızında oluşabilecek olan en küçük bir artış bile oldukça yüksek performans artışlarını sağlayacak Gelecekte bu teknoloji yaygınlık kazanırsa bizi çok daha hızlı ve kullanımı zevkli depolama araçları bekliyor olacak
OAW Teknolojisi
Her ne kadar GMR teknolojisi ile cm2′de 6GB’lik veri yoğunluğuna ulaşmak amaçlansa da yan yana yazılan verilerden kimileri cm2′de 3 GB’lik veri yoğunluğunda kayıplar olabileceği düşünülüyor Bu nedenle alternatif teknolojiler geliştirilmeye devam ediliyor OAW teknolojisi bunlardan en can alıcı olanı Seagate’in bir yan kuruluşu olan Quinta Corp Tarafından geliştirilen bu teknoloji, manyeto-optik disklerle büyük benzerlikler gösteriyor Bu teknoloji temelde lazer ışınından yararlanıyor Lazer verilerin üzerinde bulunan tabakalara odaklanıyor ve bu şekilde okuma yazma işleri yapılıyor Polarize edilmiş olan ışık kimi materyallere uygulandığında manyetik kutbun yönünü değiştiriyor Bu yöntemle harcanan enerji azalıyor ve veriler üzerinde gezinen bir kafa olmadığından sürtünme ya da çizilme gibi tehlikeler ortadan kalkıyor Bu da güvenilirliği arttıran bir unsur Bu sayede GMR’da ulaşılan depolama yoğunluğu daha fazla güvenilebilen bir metotla kullanılabiliyor Bu teknolojide asıl ilginç olan şey ise okuma işlemlerinin bir lazerle yapılması fakat aynı lazerin yazma işlemleri gerçekleştirilirken yalnızca yardımcı bir görev üstlenmesi Yazma işlemlerinde lazer ışını, kayıt yapılacak olan noktaya odaklanıyor Bu nokta belli bir eşik değerdeki ısıya ulaşıyor Daha sonra bu ısıtılmış olan bölgeye son derece küçük bir manyetik bobinle yazma işlemi yapılıyor Lazer yazma işleminin yapılacağı yeri yüksek bir kesinlikle vurup yalnızca o noktayı ısıttığından dolayı, manyetik bobinlerin etraftaki yerleri etkilemesi imkansız Çünkü verilerin değiştirilmesi için, kullanılan özel manyetik alaşımın belli bir sıcaklığa ulaştırılması gerekli Isıtılma işleminin son derece kesin noktaları vurup işlediğinden dolayı verilerin bozulması ya da silinmesi mümkün değil Üstelik lazerle o kadar o kadar küçük noktalar etkilenebiliyor ki bugünkü sabit disklerden yaklaşık 100 kat daha fazla kapasiteye sahip sabit diskleri yapmak çocuk oyuncağı haline geliyor Elde edilen performans bugün kullanılan yüksek performanslı disklerle hemen hemen aynı fakat depolama kapasitesi ve disklerin ömrü inanılmaz şekilde artıyor Şundan eminiz gelecekte, depolama teknolojilerinde bizi bekleyen hoş sürprizler olacak
Diskleri Alırken Nelere Dikkat Etmeliyim ?
Diskiniz doldu Yeni bir diske ihtiyaç var ve bir sürü disk seçeneğiniz var Hangisini, nasıl seçmelisiniz? Hangi soruları sormalısınız Eğer yeni bir disk alacaksanız, alacağınız markanın tarihine ve MTBF değerine bakın Bu verileri inceleyerek disk alın “Şimdi Bu MTBF de neyin nesi?” dediğinizi duyuyoruz MTBF (Mean Time Before Failure - Sorun Çıkmadan Önce Geçireceği Zaman) değeri, diskler için oldukça önemli bir göstergedir Disk firmaları ve bağımsız test kuruluşları, disklerini testlere tabi tutarlar ve bu testler sırasında oldukça ağır işlemler disklere yaptırılır Diskler herhangi bir sorun çıkarmadan kaç saat dayandığı ölçülür Genellikle firmanın ürünü firma tarafından belirtilmiş olan saatten çok daha fazla dayanmış ve problemsiz çalışmıştır Fakat firma emin olabileceği bir değeri, müşterilerine açıklar Örneğin bir disk bu testlerde 150 000 saat dayanmış olabilir fakat üretici bu rakamı 110 000 saat olarak açıklayabilir Siz aldığınız ürünün MTBF değerini satan firmadan ya da ürünü getiren distribütörden muhakkak öğrenin Garanti süresini ve kapsamını öğrenin Bu şekilde diskiniz bozulduğunda en azından ne yapmanız gerektiğini danışacağınız bir yer olacaktır Diğer bir kıstas da tabii ki dergi ilanları ve yaptığımız testler olacak Bunları sıkı takip ettiğiniz takdirde problem yok
Hard diskler bilgisayarlarınızdaki bileşenlerden izole edilmesi zor cihazlardır Bu sebeple kullanılacak olan işlemci ve RAM optimum düzeyde hızlı olmalı Test platformumuz için kullandığımız bileşenler, bir BX anakart ve P-II 350 MHz işlemciden oluşuyordu Bu işlemciyle birlikte 128 MB’lik bir SDRAM kullanıldı Görüntü kartı olarak Ati’nin 8MB’lik 3D Rage II çipli ekran kartı test sistemimizde yer aldı Ayrıca SCSI diskleri test etmek için Adaptec’in Ultra2LVD standardını destekleyen AHA 2940 U2W adaptör kartını kullandık
Her test edilen disk için BIOS ayarları tekrar gözden geçirildi ve SMART ya da DMA modlarının BIOS altında kullanılabilir olması sağlandı Diskler test edilmeden önce Windows altında “sistem” ayarları kullanılarak DMA modunun açık olması sağladıktan sonra sistem tekrar başlatıldı SCSI diskler Fdisk ve format komutu kullanılarak SCSI kartında 32 bit’lik mod açık olarak formatlandılar IDE diskler için aynı işlem yapıldı ve diskler IDE kontrolörünün ikinci kanalında MASTER olarak bağlandılar
Test prosedürü ise şu şekilde gerçekleştirildi: sistemimize takılan sürücüler öncelikle formatlandılar Daha sonra diskler için maksimum performansın elde edilmesi amacıyla Windows’tan ve BIOS’dan gerekli ayarlar yapıldıktan sonra, sisten tekrar başlatıldı Daha sonra kafa kalibrasyon süresi (ısınma süresi olarak bilinir) ölçüldü
Test programı olarak farklı işlemler için farklı disk benchmark programlarını kullandık Bunlardan HDTach programı diskin CPU’yu ne kadar meşgul ettiğini ölçmek için kullanıldı Diğer bir program olan MDB 95 yardımıyla 16 MB’lik bir test dosyasının sıralı ve rasgele şekilde yazılma ve diskten okunma hızları ölçüldü Daha sonra DOS ortamında çalışan CoReTest Performance adlı test programı ile disklerin ortalama, track-to-track ve rasgele erişim süreleri ölçüldü
Tüm bu test işlemleri üç kez tekrar edildikten sonra elde edilen değerlerin ortalaması alındı Değerler kayıt edildikten sonra diskler bir saat süreyle aralıksız yazma ve okuma işlemi için çalıştırılmaya başlandı Bu işlemi yapmamızın nedeni, test ettiğimiz sürücülerin ne kadar ısındığını ölçmek ve yaydıkları gürültüyü belirlemekti
Tüm test prosedürü bittikten sonra test edilen diskin üreticisinin Web sayfasına girilerek diskin içerdiği teknolojiler kayıt edildi ve üreticinin vermiş olduğu garanti ve MTBF süreleri kayda geçildi Disklerle ilgili bu bilgiler de test sonuçlarına etkileyecek şekilde son bir puanlama hesabı yapıldı Bu puanlama hesabından sonra SCSI ve IDE diskler kendi aralarında sıralandılar
Bunları Biliyor musunuz ?
Diskinize bir format attığınızda (hard format dışındaki her tür format), format işleminden hemen sonra uygun işlemler yapıldığında verilerinizi kurtarma olasılığınız %85′den fazladır Hatta bu işte uzmanlaşmış kimi firmalar, disklerine format atıp daha sonra eski bilgilerinden faydalanarak verilerini tekrar kazanır, bu arada FAT ve partisyondaki tüm virüsleri temizlerler
7200 rpm’de dönen bir 3,5 inçlik sabit diskin içinde yer alan plakaların en dış kısmındaki merkez kaç ivmesi, bir insana uygulanan çekim ivmesinden yaklaşık 647 kat daha fazladır
Şu anda kullanılan en büyük RAID dizisi “Altavista” adlı arama motoru tarafından kullanılmaktadır RAID devamlı büyümekte olmasına rağmen yapılan bir sayımda bu motorda yaklaşık 2136 adet disk takılı olduğu saptanmış Bu disklerle birlikte birçok CD-ROM ve veri teypleri ünitesi için RAID bulunduğunu da ekleyelim
Windows NT’nin kullanabildiği en büyük disk kapasitesi, 2 Petabyte’tır Bu öyle bir rakamdır ki dünyada yaşayan tüm insanların 20 sayfalık Word dokümanları bir petabyte’lık bir dosyaya konulduğunda dosyanın sadece binde 25′ini doldurur
Disklerinizi üst üste koyduğunuzda bozulma olasılıkları yaklaşık dört kat artmaktadır Aynı şekilde diskleriniz birbirine çok yakın çalıştığı takdirde ısı alış verişi artacağından ömürlerinin %25′i yok olur
Vücudunuzda depolanabilecek olan statik elektrik, bir hard disk sürücünün kafasında kullanılan elektrik geriliminden yaklaşık 2500 kez daha büyük bir gelirim yaratabilir Ve bu elektrik sabit diskinizin üzerine geçtiğinde sabit diskinizin kurtulma şansı yok gibidir Bu yüzden onları tutmadan önce kendinizi muhakkak topraklayın
Dünyada yer alan en hızlı veri depolama teknolojisi, 1995 yılında duyurulan holografik veri depolama teknolojisidir(HDSS) Holografik depolama teknolojileri sayesinde, bir kesme şeker büyüklüğündeki bir kristale yaklaşık 10 TB’lik (1TB=1024 Gigabyte) veri depolanabilmektedir Bu kristalden saniyede 10 ile 50 GB’lik veri okumak mümkün Bu sayede tüm internet materyalini, iki sigara kutusu kadar bir yere sığdırabilir ve bu kadar bilgiyi yaklaşık 2,5 saatte tarayabilirsiniz
|