Doğal dil işleme teknolojisinin kısa tarihçesi
2.06.2021
Sosyal Medya

Doğal dil işleme teknolojisinin kısa tarihçesi

Doğal dil işleme, her internet kullanıcısının sık sık karşılaştığı ancak yapay zeka konusunda bilgi sahibi olmayanların arka planda çalıştığını fark etmediği bir teknolojidir. Doğal dil işleme (NLP), bilgisayarların insanları anlamasına, yorumlamasına ve anlamlar türetmesine yardımcı olur.

NLP (natural language processing) kısaltmasıyla bilinen doğal dil işleme teknolojisi, günümüzde kullanılan birçok uygulamada yer alır. Akıllı asistanlar, tercüme uygulamaları ve müşteri hizmetleri çağrılarındaki otomatik sesli yanıt sistemleri en popüler uygulama alanlarının başında gelir.

Akıllı telefonlar, insan konuşmalarını anlamak ve yorumlamak, kullanıcı sorgularına metin veya ses tabanlı yanıtlar sağlamak için doğal dil işleme teknolojisinden faydalanan Siri veya Google Asistan gibi uygulamalara sahiptir.

Grammarly gibi kelime işlemciler insanlar tarafından yazılan metinleri bu teknoloji sayesinde dil bilgisi, sözdizimi ve mantık açısından kontrol eder. Çeviri uygulamaları bir dili işler ve onu yazılı veya sözlü olarak başka bir dile çevirir. İnsanları doğru insan müşteri hizmetleri temsilcisine yönlendirmek için telefon üzerinden sözlü istekleri ve komutları dinlemek için geliştirilen etkileşimli sesli yanıt (IVR) uygulamaları da bu teknoloji sayesinde mümkün olmuştur.

Doğal dil işleme teknolojisi nedir?

Doğal dil işleme, yapay zekaya dayanan bilgisayar bilimi ve dilbilim de dahil olmak üzere birçok disipline dayanır. Bilgisayarlarla evrensel olarak anlaşılır bir dilde iletişim kurma ihtiyacına yanıt olarak geliştirilmiştir.

NLP'nin amacı, bilgisayar ve insan iletişimi arasındaki boşluğu ortadan kaldırmaktır. Doğal dil işleme teknolojisi, bilgisayarların bizi anlamasını ve bizim onları anlamamızı kolaylaştırır. İnsanlar gibi bilgisayarların da ana dili vardır. Tek fark, onların dilinin tercüme edilmedikçe dilbilimsel açıdan bizim için hiçbir şey ifade etmeyen bir ve sıfırlardan oluşmasıdır. Doğal dil işleme teknolojisi, bilgisayarlar ile insanların aynı dili konuşmasını sağlar.

Doğal dil işleme teknolojisinin kısa tarihi

Doğal dil işleme teknolojisinin kökleri 1600'lü yıllara kadar dayanır. Teknoloji, sözcükleri diller arasında ilişkilendirebilecek kodlar öneren René Descartes ve Gottfried Wilhelm Leibniz tarafından teoriye dökülmüştür. Buna rağmen, NLP’nin uygulanabilir örneklerinin ortaya çıkması için üç asırlık teknolojik gelişmenin beklenmesi gerekti.

  • 1950’ler: NLP’nin erken dönemi

1954’te gerçekleştirilen Georgetown-IBM deneyi bu alandaki ilk önemli atılımdır. Türünün ilk örneği olan bu deney, 60’tan fazla Rusça cümlenin bilgisayarlar tarafından otomatik olarak tercüme edilmesini içeriyordu.

  • 1960’lar: Bilgisayarlar anlamayı öğrendi

Yapay zeka teorisyeni ve bilişsel psikolog Roger Schank, 1969'da doğal dili anlamak için kavramsal bağımlılık teorisi modelini geliştirdi. Schank’in amacı, bilgisayarların girdiden (gerçekte yazılan sözcükten) bağımsız anlam (niyet) okuması yapmasını sağlamaktı. Bu yaklaşım, cümlelerin bilgisayar sistemlerine nasıl girildiğine bakılmaksızın, anlamları aynı olduğu sürece yazılma şekillerinin önemli olmadığını makinelere öğretti. Schank’in kavramsal bağımlılık teorisi sayesinde bilgisayarlar, “Hasan Ayşe’ye bir kitap verdi” cümlesi ile “Hasan bir kitabı Ayşe’ye verdi” cümlelerin aynı anlama geldiğini anlayacak şekilde eğitilmeye başlandı.

  • 1970’ler: Teknolojinin gelişimi hızlandı

NLP araştırmacısı William A. Woods, 1970 yılında artırılmış geçiş ağını (ATN) tanıttı. Doğal dil girdisini temsil eden ATN, bilgisayarlara cümle yapısını karmaşıklıktan bağımsız olarak analiz etme kabiliyeti kazandırdı.

ATN'ler, RTN olarak bilinen yinelemeli geçiş ağlarının bir uzantısı olarak geliştirildi. Hem ATN'ler hem de RTN'ler, cümle analizinde bağlamdan bağımsız kullanılan dilbilgisi kurallarını temsil etmek için geliştirilen teorik grafik şemalardır. ATN'ler verimli cümle ayrıştırma (dilbilgisi) kavramını temel alır. Markov modeli, tutarlı dilbilgisi yapılarıyla dil düzenliliklerini ve standartlarını yakalayarak, bilgisayarların dil girdilerini anlamasını kolaylaştırdı.

70’li yıllar programcıların kavramsal ontolojiler geliştirmesiyle geçti. Bu çalışmalar, evrensel bir değişkenler kümesi içindeki kategorilerin ve ilişkilerin resmi temsilini ortaya koyarak bir standart geliştirmeyi amaçlıyordu.

  • 1980’ler: Yeni modellerin ortaya çıkışı

Doğal dil işleme teknolojisi 80’lerin büyük bir bölümünde elle yazılmış kural tabanlı modellere dayandı. 80’lerin sonunda geliştirilen ilk makine öğrenimi algoritmaları, karmaşık el yazısı kural kümelerine benzeyen “eğer X ise Y” gibi şartlı kural mekaniklerine dayanan karar ağaçları olarak şekillendi. Bu NLP sistemleri, veri girişlerini önceki sistemlerden daha yüksek bir doğruluk düzeyinde değerlendiren istatistiksel modellere odaklandı.

  • 2000’lerden günümüze: Doğal dil işlemenin altın çağı

Günümüzde doğal dil işleme teknolojisini günlük hayatımızın birçok alanında görüyoruz. Yeni milenyumun teknolojik patlaması, NLP için her zamankinden daha fazla uygulamanın geliştirilmesine yol açtı. Doğal dil işleme, yapay zeka teknolojinin gelişimiyle doğru orantılı olarak sürekli daha doğru ve tutarlı sonuçlar vererek işlevselliğini artırıyor.

Öne Çıkan Yazılar
Sosyolojik reformun yeni adı: Toplum 5.0
Sosyolojik reformun yeni adı: Toplum 5.0
Teknolojik gelişmeler hayatın tüm alanlarında hızlı ve köklü değişimlere sebep oluyor. Toplumun sosyal ve kültürel yapısı...
5.08.2020
Büyük Veri
Sağlık hizmetlerinde veri yönetimi nasıl yapılıyor?
Sağlık hizmetlerinde veri yönetimi nasıl yapılıyor?
Bilgi temeline dayanan bir sektör olan sağlık sektöründe işlemlerin her aşamasında bilgiye gereksinim duyulması sağlık hizmetlerinde...
23.04.2020
Büyük Veri
Markaların büyük veri analizini kullandığı alanlar
Markaların büyük veri analizini kullandığı alanlar
Büyük veri analizi; yapılacak yatırımlar, büyüme ya da küçülme gibi kritik karar alma süreçlerini kolaylaştırması açısından...
14.05.2020
Büyük Veri
Büyük Veri hangi kaynaklardan elde edilir?
Büyük Veri hangi kaynaklardan elde edilir?
Kurumların stratejik kararlar vermesine yardımcı olan Büyük Veri (Big Data) nedir, türleri, nasıl ve hangi kaynaklardan elde...
1.10.2020
Büyük Veri
Nesnelerin İnterneti, Yapay Zekâ ve Verinin Gücü
Nesnelerin İnterneti, Yapay Zekâ ve Verinin Gücü
Son yıllarda gündemden düşmeyen “Büyük Veri” konusu yapay zekâ uygulamalarının da gelişmesiyle daha önemli bir kavram haline...
20.08.2019
Büyük Veri
Sosyal medya madenciliği ile veriye hükmedin!
Sosyal medya madenciliği ile veriye hükmedin!
Mobil internet kullanımının artışına paralel olarak son yıllarda büyüme gösteren sosyal medya platformları, yaygın iletişim...
20.07.2020
Büyük Veri