Kimse Seni Anlamıyor Mu ? Yapay Zeka Anlar

Yapay zekanın dil işleme ve konuşma teknolojileri hızlı bir şekilde ilerlerken uzmanlar duygusal zekaya sahip bir yapay zeka elde etmenin yollarını arıyorlar. Dil işlemenin yanı sıra kullanıcının ruh halini tanımlayabilen bir yapay zeka daha sempatik olacağı için uzmanların ilgisini çeken bir konu. 

“Çok modlu duygu analizi”, duygu algılamalı bir yapay zeka iletişim sistemi için altın standardı oluşturan bir yöntemler grubudur. Bu yöntemler, bir kişinin psikolojik durumunu konuşmasından, ses renginden, yüz ifadesinden ve duruşundan otomatik olarak analiz edebilir ve insan merkezli yapay zeka sistemleri için çok önemlidir. Teknik, kullanıcının duygularını anlayan ve buna göre bir yanıt üreten, insan ötesi yeteneklere sahip, duygusal olarak akıllı bir yapay zekayı potansiyel olarak gerçekleştirebilir. Bununla birlikte, mevcut duygu tahmin yöntemleri yalnızca gözlemlenebilir bilgilere odaklanır ve fizyolojik sinyaller gibi gözlemlenemeyen sinyallerde bulunan bilgileri hesaba katmaz. Bu tür sinyaller, duygu tahmin performansını büyük ölçüde artırabilecek potansiyel bir duygu altın madenidir. 

Japonya’da yapılan yeni bir çalışmada, çalışmaya katılan Prof. Komatani: “İnsanlar duygularını gizlemede çok iyidir. Bir kullanıcının içsel duygusal durumu, diyaloğun içeriği tarafından her zaman doğru bir şekilde yansıtılmaz, ancak bir kişinin kalp atış hızı gibi biyolojik sinyallerini bilinçli olarak kontrol etmesi zor olduğu için bunları duygusal durumlarını tahmin etmek için kullanmak faydalı olabilir. Bu, insanın yeteneklerinin ötesinde duygu tahmin yeteneklerine sahip bir yapay zeka tarafından yapılabilir” diye açıklıyor Dr. Okada. 

Ekip, konuşma sırasında kullanıcının yaşadığı tatmin olma seviyesini tahmin etmek için 26 katılımcıdan elde edilen bir diyalog yapay zeka ile 2468 alışverişi analiz etti. Daha sonra kullanıcıdan konuşmayı ne kadar eğlenceli veya sıkıcı bulduklarını değerlendirmesi istendi. Ekip, konuşma tanıma, ses rengi sensörleri, yüz ifadesi ve duruş algılamayı cilt potansiyeli ile benzersiz bir şekilde birleştiren “Hazumi1911” adlı çok modlu diyalog veri setini kullandı, bir tür fizyolojik tepki algılama. 

“Bütün ayrı bilgi kaynakları karşılaştırıldığında, biyolojik sinyal bilgisinin ses ve yüz ifadesinden daha etkili olduğu kanıtlandı. Sistemle konuşurken kendi kendine değerlendirilen iç durumu tahmin etmek için dil bilgisini biyolojik sinyal bilgisiyle birleştirdiğimizde, yapay zekanın performansı bir insanınkiyle karşılaştırılabilir hale geldi” diyor Dr. Okada. 

Bu bulgular, duygu değişimleri sırasında ortaya çıkan fakat gözle görülemeyen fizyolojik sinyallerin tespitinin, daha doğal ve tatmin edici insan-makine etkileşimleri için, duygusal açıdan son derece akıllı yapay zeka tabanlı diyalog sistemlerinin önünü açabileceğini düşündürmektedir. Ayrıca, duygusal olarak akıllı yapay zeka sistemleri, günlük duygusal durumlardaki bir değişikliği algılayarak akıl hastalığını tanımlamaya ve izlemeye yardımcı olabilir. Ayrıca, yapay zekanın öğrencinin bir tartışma konusuyla ilgilenip heyecan duymadığını veya sıkıldığını, öğretim stratejisinde ve daha verimli eğitim hizmetlerinde değişikliklere yol açıp açmadığını ölçebildiği eğitimde de kullanışlı olabilirler. 

Kaynakça:

S. Katada, S. Okada and K. Komatani, “Effects of Physiological Signals in Different Types of Multimodal Sentiment Estimation,” in IEEE Transactions on Affective Computing, doi: 10.1109/TAFFC.2022.3155604.

Leave a Reply