2 Haz 2021
3 dk okuma süresi
Doğal dil işleme, her internet kullanıcısının sık sık karşılaştığı ancak yapay zeka konusunda bilgi sahibi olmayanların arka planda çalıştığını fark etmediği bir teknolojidir. Doğal dil işleme (NLP), bilgisayarların insanları anlamasına, yorumlamasına ve anlamlar türetmesine yardımcı olur.
NLP (natural language processing) kısaltmasıyla bilinen doğal dil işleme teknolojisi, günümüzde kullanılan birçok uygulamada yer alır. Akıllı asistanlar, tercüme uygulamaları ve müşteri hizmetleri çağrılarındaki otomatik sesli yanıt sistemleri en popüler uygulama alanlarının başında gelir.
Akıllı telefonlar, insan konuşmalarını anlamak ve yorumlamak, kullanıcı sorgularına metin veya ses tabanlı yanıtlar sağlamak için doğal dil işleme teknolojisinden faydalanan Siri veya Google Asistan gibi uygulamalara sahiptir.
Grammarly gibi kelime işlemciler insanlar tarafından yazılan metinleri bu teknoloji sayesinde dil bilgisi, sözdizimi ve mantık açısından kontrol eder. Çeviri uygulamaları bir dili işler ve onu yazılı veya sözlü olarak başka bir dile çevirir. İnsanları doğru insan müşteri hizmetleri temsilcisine yönlendirmek için telefon üzerinden sözlü istekleri ve komutları dinlemek için geliştirilen etkileşimli sesli yanıt (IVR) uygulamaları da bu teknoloji sayesinde mümkün olmuştur.
Doğal dil işleme teknolojisi nedir?
Doğal dil işleme, yapay zekaya dayanan bilgisayar bilimi ve dilbilim de dahil olmak üzere birçok disipline dayanır. Bilgisayarlarla evrensel olarak anlaşılır bir dilde iletişim kurma ihtiyacına yanıt olarak geliştirilmiştir.
NLP'nin amacı, bilgisayar ve insan iletişimi arasındaki boşluğu ortadan kaldırmaktır. Doğal dil işleme teknolojisi, bilgisayarların bizi anlamasını ve bizim onları anlamamızı kolaylaştırır. İnsanlar gibi bilgisayarların da ana dili vardır. Tek fark, onların dilinin tercüme edilmedikçe dilbilimsel açıdan bizim için hiçbir şey ifade etmeyen bir ve sıfırlardan oluşmasıdır. Doğal dil işleme teknolojisi, bilgisayarlar ile insanların aynı dili konuşmasını sağlar.
Doğal dil işleme teknolojisinin kısa tarihi
Doğal dil işleme teknolojisinin kökleri 1600'lü yıllara kadar dayanır. Teknoloji, sözcükleri diller arasında ilişkilendirebilecek kodlar öneren René Descartes ve Gottfried Wilhelm Leibniz tarafından teoriye dökülmüştür. Buna rağmen, NLP’nin uygulanabilir örneklerinin ortaya çıkması için üç asırlık teknolojik gelişmenin beklenmesi gerekti.
1950’ler: NLP’nin erken dönemi
1954’te gerçekleştirilen Georgetown-IBM deneyi bu alandaki ilk önemli atılımdır. Türünün ilk örneği olan bu deney, 60’tan fazla Rusça cümlenin bilgisayarlar tarafından otomatik olarak tercüme edilmesini içeriyordu.
1960’lar: Bilgisayarlar anlamayı öğrendi
Yapay zeka teorisyeni ve bilişsel psikolog Roger Schank, 1969'da doğal dili anlamak için kavramsal bağımlılık teorisi modelini geliştirdi. Schank’in amacı, bilgisayarların girdiden (gerçekte yazılan sözcükten) bağımsız anlam (niyet) okuması yapmasını sağlamaktı. Bu yaklaşım, cümlelerin bilgisayar sistemlerine nasıl girildiğine bakılmaksızın, anlamları aynı olduğu sürece yazılma şekillerinin önemli olmadığını makinelere öğretti. Schank’in kavramsal bağımlılık teorisi sayesinde bilgisayarlar, “Hasan Ayşe’ye bir kitap verdi” cümlesi ile “Hasan bir kitabı Ayşe’ye verdi” cümlelerin aynı anlama geldiğini anlayacak şekilde eğitilmeye başlandı.
1970’ler: Teknolojinin gelişimi hızlandı
NLP araştırmacısı William A. Woods, 1970 yılında artırılmış geçiş ağını (ATN) tanıttı. Doğal dil girdisini temsil eden ATN, bilgisayarlara cümle yapısını karmaşıklıktan bağımsız olarak analiz etme kabiliyeti kazandırdı.
ATN'ler, RTN olarak bilinen yinelemeli geçiş ağlarının bir uzantısı olarak geliştirildi. Hem ATN'ler hem de RTN'ler, cümle analizinde bağlamdan bağımsız kullanılan dilbilgisi kurallarını temsil etmek için geliştirilen teorik grafik şemalardır. ATN'ler verimli cümle ayrıştırma (dilbilgisi) kavramını temel alır. Markov modeli, tutarlı dilbilgisi yapılarıyla dil düzenliliklerini ve standartlarını yakalayarak, bilgisayarların dil girdilerini anlamasını kolaylaştırdı.
70’li yıllar programcıların kavramsal ontolojiler geliştirmesiyle geçti. Bu çalışmalar, evrensel bir değişkenler kümesi içindeki kategorilerin ve ilişkilerin resmi temsilini ortaya koyarak bir standart geliştirmeyi amaçlıyordu.
1980’ler: Yeni modellerin ortaya çıkışı
Doğal dil işleme teknolojisi 80’lerin büyük bir bölümünde elle yazılmış kural tabanlı modellere dayandı. 80’lerin sonunda geliştirilen ilk makine öğrenimi algoritmaları, karmaşık el yazısı kural kümelerine benzeyen “eğer X ise Y” gibi şartlı kural mekaniklerine dayanan karar ağaçları olarak şekillendi. Bu NLP sistemleri, veri girişlerini önceki sistemlerden daha yüksek bir doğruluk düzeyinde değerlendiren istatistiksel modellere odaklandı.
2000’lerden günümüze: Doğal dil işlemenin altın çağı
Günümüzde doğal dil işleme teknolojisini günlük hayatımızın birçok alanında görüyoruz. Yeni milenyumun teknolojik patlaması, NLP için her zamankinden daha fazla uygulamanın geliştirilmesine yol açtı. Doğal dil işleme, yapay zeka teknolojinin gelişimiyle doğru orantılı olarak sürekli daha doğru ve tutarlı sonuçlar vererek işlevselliğini artırıyor.
İlgili Postlar
Veri okuryazarlığı nedir?
7 Eki 2024
Büyük Veri