Büyük verinin kısa tarihçesi
17.06.2021
Sosyal Medya

Büyük verinin kısa tarihçesi

Bu yazımızda 1600'lerin istatistiksel veri analizinden 1940'ların ilk programlanabilir bilgisayarına, internet, Hadoop, IoT, AI ve daha fazlasına kadar büyük verinin kilometre taşlarına kronolojik olarak bakıyoruz.

Büyük veri, son yıllarda iş dünyasında devrim yaratan teknolojilerin başında geliyor. Yapılandırılmış, yarı yapılandırılmış ve yapılandırılmamış verilerin karması olan büyük veriyi, şirketlerin makine öğrenimi, tahmine dayalı modelleme ve diğer gelişmiş veri analitiği uygulamaları aracılığıyla iş maksatlı kullanabilecekleri bilgi koleksiyonu olarak tanımlamak mümkün.

2010’ların başında sektörün diline pelesenk olan büyük veri, o yıllarda içi boşaltılmış bir kavram izlenimi vermiş olsa da, kısa süre içinde gerek iş gerekse günlük yaşam üzerinde muazzam etkiler yarattığını söylemek gerek. Bununla birlikte, büyük veri kavramı aslında yüzyıllardır hayatımızda yer alıyor.

Bugün bildiğimiz anlamda gelişmiş büyük veri analitiğine yol açan veri analizinin tarihi 17. yüzyıl Londra’sına kadar uzanıyor. Şimdi daha eskilerden başlayarak büyük verinin tarihine yakından bakalım.

Büyük verinin tarihi

Zeki insanların dünyayı anlamlandırmak için istatistiklere ve analize göre hareket etmenin değerini anlamaya başladığı dönemde büyük verinin temelleri atılmaya başlandı.

1663

İngiltere'de meydana gelen 1665'ten 1666'ya kadar süren ve kara ölüm olarak da bilinen hıyarcıklı veba salgını ile ilgili Londralı bilim insanı John Graunt’in sunduğu istatistiksel veri analizi, büyük veri için milat olarak kabul edilir. Yaptığı çalışma ile ölüm nedenlerini sistematik olarak ölçmeye çalışan Graunt, ölüm oranlarını ve bunların varyasyonlarını kaydettiği ilk halk sağlığı kayıtları koleksiyonunu 1663’te yayınladı.

1865

1865 yılında yazar Richard Millar Devens "Cyclopædia of Commercial and Business Anecdotes" adlı kitabında “Business Intelligence” yani iş zekası terimini ilk kez kullanır. Devens kitabında bir bankacının kar elde etmek için çevresinden gelen bilgileri nasıl kullandığını anlatmıştır. Bugün bildiğimiz anlamıyla, verileri analiz etme ve ardından eyleme dönüştürülebilir bilgiler sunmak için kullanma süreci olan iş zekasının 1960-85 yılları arasında gelişen karar destek sistemlerinden (DSS: Decision Support Systems) geliştirildiği söylenebilir.

1884

Dr. Herman Hollerith, veri işlemenin başlangıcı olarak kabul gören, delikli kartı kullanarak istatistiki verilerin daha hızlı bir biçimde değerlendirilmesini mümkün kılan makine ve sistemi icat eder. Hollerith’in geliştirdiği sistem 1890'da ABD'nin nüfus sayımı verilerini işlemek için kullanıldı. Dr. Herman Hollerith, 1911'de, sonrasında ismi IBM olacak olan Computing-Tabulating-Recording şirketini kurdu.

1926

Tesla, 1926 yılında teknolojinin geleceğini yorumladığı röportajında, insanların bir gün "yelek cebinde" taşınabilen bir cihaz aracılığıyla büyük miktarda veriye erişebileceklerini öngörür. Tesla, bu değerlendirmeyi kablosuz teknolojinin parçacıkları değiştireceği konusundaki anlayışına dayanarak tahmin etmiş ve bu konuda şu yorumu yapmıştır; "Kablosuz teknolojiyle tüm dünya devasa bir beyne dönüşecek ve mesafeden bağımsız olarak birbirimizle anında iletişim kurabileceğiz.”

1928

Alman mühendis Fritz Pfleumer, 1928 yılında çelik tel yerine üzeri demir oksit tanecikleri kaplı kâğıt şeride çok daha kaliteli ses kaydı yapmayı başardı. Daha sonra da ünlü Alman firması AEG’nin desteğiyle kâğıt yerine ince plastik şerit kullanarak daha pratik ve kaliteli manyetik kayıtlar geliştirdi.

1943

İngiltere, İkinci Dünya Savaşı sırasında düşmanın gizli haberleşme kodlarını çözmek için teorik bir bilgisayar ve ilk veri işleme makinelerinden birini icat etti. Bletchley Park’taki kod çözme merkezinde faaliyete geçen ilk büyük ölçekli elektronik bilgisayar olan Colossus, büyük hacimli verileri analiz etmek için kullanıldı.

1959

IBM programcısı ve yapay zeka biliminin öncüsü Arthur Samuel 1952'de "makine öğrenimi" terimini ortaya attı.

1965

ABD, milyonlarca vergi beyannamesi ve parmak izini manyetik bantta saklamak için ilk veri merkezlerini inşa etmeye başladı.

1969

Dağıtık kontrol ve TCI/IP protokollerini içeren ilk geniş alan ağı olan Advanced Research Projects Agency Network (ARPANET) kuruldu. Bu, günümüz internetinin temelinin atılması anlamına geliyordu.

İnternet çağı: Büyük verinin şafağı

Bilgisayarlar internet sayesinde katlanarak daha yüksek oranlarda bilgi paylaşmaya başladıkça, büyük veri tarihindeki bir sonraki aşama da şekillenmeye başladı.

1989 ve 1990

Tim Berners-Lee ve Robert Cailliau, World Wide Web, HTML, URL ve HTTP protokolünü geliştirdiler. Böylece verilere yaygın ve kolay erişim ile internet çağı başlamış oldu.

1996

Dijital veri depolama, ilk kez kağıda bilgi depolamaktan daha uygun maliyetli hale geldi. Bu bilgi R. J. T. Morris ve B.J. Truskowski’in 2003 yılında IBM Systems Journal’da yer alan "Depolama Sistemlerinin Evrimi" makalesinde yer aldı.

1997

Google, bugün kullandığı alan adını 15 Eylül 1997'de etkinleştirdi ve 4 Eylül 1998'de Google şirketi resmen kuruldu. Arama motoru devrimi ile makine öğrenimi, büyük veri ve analitik teknolojileri de dahil olmak üzere çok sayıda diğer teknolojik yeniliğin geliştirilmesine başlanmadan bir yıl önce Google.com adı tescillenmiş oldu.

1998

“NoSQL” sözcüğü ilk defa Carlo Strozzi tarafından 1998 yılında kullanıldı. Geliştirdiği ilişkisel veritabanının sorgulama dili olarak SQL’i kullanmadığını belirtmek isteyen Strozzi, açık kaynak kodlu veritabanı için NoSql DB ismini kullandı.

1999

İlk baskısı 2000 yılında yayımlanan Hal R. Varian ve Peter Lyman'ın “How Much Information” isimli kitabı 1999'daki verilere dayanarak, bugüne kadar dünyada mevcut olan dijital bilgi miktarını belirlemeye çalıştı.

21. yüzyılda büyük veri

Bugün bildiğimiz anlamıyla büyük veri teknolojisi 2000 yılının başı itibarıyla hayatımıza girmeye başladı ve dokunduğu tüm endüstrileri etkileyerek dijital dünyada yeni bir dönemin kapısını açtı.

2001

Bilgi teknolojileri firması Gartner'dan Doug Laney, 3V'yi (hacim, çeşitlilik ve hız) kullanarak büyük verinin boyutlarını ve özelliklerini tanımladı. Büyük verinin ne anlama geldiğini çok iyi özetleyen bu tanım, bu teknolojinin 21. yy. için ne kadar önemli olduğunu da ortaya koymuştur. Bu açıklamanın ardından doğruluk, değer ve değişkenlik gibi alt özellikler de büyük veri tanımına eklenmiştir.

2005

Bilgisayar bilimcileri Doug Cutting ve Mike Cafarella, Yahoo'dan ayrılan mühendislerden oluşan bir ekip ile büyük veri kümelerini depolamak ve işlemek için kullanılan açık kaynaklı yazılım araçları koleksiyonu Apache Hadoop'u geliştirdi.

2006

Amazon Web Services (AWS), bulut bilişim olarak bilinen web tabanlı bilgi işlem altyapısı hizmetleri sunmaya başladı. Şu anda AWS, küresel pazar payının yaklaşık üçte biri ile bulut hizmetleri sektörünün hakimidir.

2008

Dünyadaki tüm CPU'ların, kişi başına yaklaşık 12 gigabayta eşit olan 9,57 zettabayttan (veya 9,57 trilyon gigabayt) fazla veri işlediği açıklandı. Küresel olarak yeni bilgi üretimi tahmini olarak 14,7 eksabayta denk geliyordu.

2009

Gartner, iş zekasının CIO'lar için en önemli öncelik olduğunu açıkladı. Büyük Durgunluk nedeniyle bir ekonomik dalgalanma ve belirsizlik dönemiyle karşı karşıya kalan şirketler için artık veriden değer yaratmak vazgeçilmez hale gelmeye başladı.

2011

McKinsey, 2018 yılına kadar ABD'nin analitik yetenek sıkıntısı ile karşı karşıya kalacağını açıkladı. Buna göre söz konusu tarihe kadar ABD’nin derin analitik becerilere sahip 140 bin ile 190 bin kişiye ve doğru veriye dayalı kararlar alma becerisine sahip 1,5 milyon analist ve yöneticiye ihtiyacı olacaktı.

Ayrıca Facebook, enerji açısından verimli veri merkezleri için teknik özellikleri paylaşmak üzere Open Compute Project’i başlattı. Girişimin hedefi, maliyetleri %24 düşürüp, enerji verimliliğinde %38 artış sağlamaktı.

2012

ABD, ulusal güvenlik ve öğrenme dönüşümü vizyonu kapsamında veriden değerli iç görüler elde etme ve STEM uygulamalarının büyümesini hızlandırmak için 200 milyon dolarlık bir taahhütle Büyük Veri Araştırma ve Geliştirme Girişimi'ni duyurdu. STEM’e o dönemde sanatı temsilen “A” harfi eklendi ve STEAM oldu.

Harvard Business Review, veri bilimci mesleğini 21. yüzyılın en arz edilen mesleği ilan etti. Daha fazla şirket, yapılandırılmamış verileri sıralama ve bunlardan iç görü elde etme ihtiyacını anladıkça, veri bilimcilere olan talep arttı.

2013

Büyük verinin global pazar hacmi 10 milyar dolara ulaştı.

2014

ABD'de masaüstü bilgisayarlardan daha fazla mobilden internete erişildiği verisi ilk kez rapor edildi. Dünyanın geri kalanı takip eden 2 yıl içinde ABD’yi bu konuda yakaladı.

2016

Dünyadaki verilerin yüzde doksanının yalnızca son iki yılda oluşturulduğu açıklandı ve IBM, her gün 2,5 kentilyon bayt veri oluşturulduğunu bildirdi.

2017

IDC, büyük veri analizi pazarının 2020'de 203 milyar dolara ulaşacağını tahmin etti.

2020

Allied Market Research, büyük veri ve iş analitiği pazarının 2019'da 193,14 milyar dolara ulaştığını ve yıllık %10,9'luk bileşik büyüme oranında 2027'ye kadar 420,98 milyar dolara çıkacağını tahmin etti.

Büyük verinin geleceği: Büyük veride sıradaki adım ne?

Hızlı, neredeyse gerçek zamanlı analiz ve yanıt sağlamak için verilerin oluşturuldukları yere yakın bir şekilde işlenmesi, analiz edilmesi ve depolanması anlamına gelen sınır bilişim büyük verinin bir adım sonrasını ifade ediyor. Bu kavram önümüzdeki yıllarda çok daha fazla karşımıza çıkacak. Bağlı cihazların her geçen gün artması, buluta artan bağımlılığımız ve yaklaşan uç bilgi işlem devrimi nedeniyle, büyük veri odaklı atılması gereken çok fazla adım var.

Örneğin makine öğrenimi, yapay zeka ve IoT analitiği gibi teknolojiler, verileri işleme, analiz etme ve bunlara göre hareket etme becerimizi büyük ölçüde geliştirerek sınırları zorlamaya devam ediyor. Büyük veri ve analitikte önemli gelişmelerin çok kısa süre içinde hayatımıza gireceği bir gerçek.

Öne Çıkan Yazılar
Sosyolojik reformun yeni adı: Toplum 5.0
Sosyolojik reformun yeni adı: Toplum 5.0
Teknolojik gelişmeler hayatın tüm alanlarında hızlı ve köklü değişimlere sebep oluyor. Toplumun sosyal ve kültürel yapısı...
5.08.2020
Büyük Veri
Sağlık hizmetlerinde veri yönetimi nasıl yapılıyor?
Sağlık hizmetlerinde veri yönetimi nasıl yapılıyor?
Bilgi temeline dayanan bir sektör olan sağlık sektöründe işlemlerin her aşamasında bilgiye gereksinim duyulması sağlık hizmetlerinde...
23.04.2020
Büyük Veri
Markaların büyük veri analizini kullandığı alanlar
Markaların büyük veri analizini kullandığı alanlar
Büyük veri analizi; yapılacak yatırımlar, büyüme ya da küçülme gibi kritik karar alma süreçlerini kolaylaştırması açısından...
14.05.2020
Büyük Veri
Büyük Veri hangi kaynaklardan elde edilir?
Büyük Veri hangi kaynaklardan elde edilir?
Kurumların stratejik kararlar vermesine yardımcı olan Büyük Veri (Big Data) nedir, türleri, nasıl ve hangi kaynaklardan elde...
1.10.2020
Büyük Veri
Nesnelerin İnterneti, Yapay Zekâ ve Verinin Gücü
Nesnelerin İnterneti, Yapay Zekâ ve Verinin Gücü
Son yıllarda gündemden düşmeyen “Büyük Veri” konusu yapay zekâ uygulamalarının da gelişmesiyle daha önemli bir kavram haline...
20.08.2019
Büyük Veri
Sosyal medya madenciliği ile veriye hükmedin!
Sosyal medya madenciliği ile veriye hükmedin!
Mobil internet kullanımının artışına paralel olarak son yıllarda büyüme gösteren sosyal medya platformları, yaygın iletişim...
20.07.2020
Büyük Veri