Bilim insanları yapay zeka ve elektrotlar sayesinde beyindeki sinyalleri konuşmaya çeviren bir cihaz geliştirdi. Bu sistem, beyninde hasar bulunan ya da epilepsi, Alzheimer, Parkinson, MS gibi nörolojik hastalıkları olan kişilerin konuşma yetisini geri kazanmasına yardımcı olabilecek. Üstelik sistem bununla da kalmayacak ve konuşan kişinin duygularıyla kişiliğini de yansıtabilecek.
Son zamanlarda yapılan bir çalışma, sesi olmayanlara ses olabilecek bir ürünü ortaya koydu. Bunun için bilim insanları elektrotları ve yapay zekayı kullanarak beyin sinyallerini konuşmaya çevirebilecek bir cihaz üretti. Dr. Edward Chang’in laboratuvarında geliştirilen yeni sistem, kişinin beynindeki konuşma merkezleri tarafından kontrol edilebilen sentetik bir ses üretilebileceğini gösteriyor. Bilim insanlarına göre söz konusu sistem, sadece konuşma bozukluğu olan bireylerin akıcı bir iletişim kurmasını sağlamayacak, aynı zamanda konuşan kişinin duyguları ve kişiliğini yansıtacak şekilde de ayarlanabilecek. Öte yandan felçli bazı hastalar bu sistemden yararlanamayacak çünkü teknoloji beynin dudakları, dili, gırtlağı ve çenenin doğru biçimde hareket etme ilkesi kapsamında çalışacak.
Çalışma kapsamında beyin implantı tedavisi almış beş epilepsi hastasının beyin aktivitesi kaydedildi. Beyinde bulunan elektrotlar, beyin dalgalarını bilgisayar tarafından söylenen kelimelere çevirmek için kullanıldı. Çalışmada epilepsi hastalarından yapay zeka algoritmasının, beyin sinyallerinin konuşma olarak gönderdiği kodları çözebilmesi adına birkaç cümle okuması istendi. Nörolojik cerrahi profesörü ve UCSF Weill Neuroscience Enstitüsü üyesi olan Dr. Chang’e göre bu çalışma ilk kez bireyin beyin aktivitesine dayalı tüm sözlü cümlelerin üretebileceğini gösteriyor. Aynı zamanda halihazırda ulaşılan bu teknolojiyle, konuşma kaybı olan hastalarda klinik olarak uygun bir cihaz üretebileceğinin de heyecan verici bir delili.
Yüzde 70’i anlaşılabiliyor
Ağzın şekline ve seslerine odaklanarak bir ilke imza atılan sistemde çalışma prensibi ise şöyle; ilk olarak beynin dili, dudakları, çeneyi ve gırtlağı hareket ettiren kısmına elektrotlar yerleştiriliyor ve beynin bu bölgesindeki elektrik sinyalleri algılanıyor. Ardından bilgisayarda farklı sesler için ağzın ve gırtlağın hareketleri kopyalanıyor ve sonunda da ses aygıtından “sentetik bir konuşma” duyuluyor. Şu an için konuşmalar çok net duyulamadığı için sistem mükemmel çalışmıyor. Nitekim beş kişinin katıldığı deneylerde yüzlerce cümle arasından dinleyiciler konuşulanların yüzde 70’ini anlayabildi. Öte yandan elde edilen sentezlenmiş konuşmada, dakikada 150 kelime türetildi ki daha önceki benzer sistemlerde bu sayı dakikada sadece 8’di.
Zihinlerimiz okunabilir mi?
Bu teknoloji farklı hastalıklardan iletişim becerilerini kaybedenlere, başkalarıyla konuşabilmek için gerçekten yardımcı olabilir. Öte yandan kimileri bu teknolojinin bir “zihin okuma aracı” olarak çalışabileceği ve insanların özel düşüncelerini tehlikeye atabileceğinden endişe duyuyor. Öte yandan bilim insanları konuşmanın doğru bir şekilde taklit edilebilmesi için hâlâ çok mesafe kat edilmesi gerektiğini düşünüyor. Nitekim Dr. Chang da “Biz ve diğer araştırmacılar sadece düşünceleri deşifre etmeyi denedik. Ancak bu çok zor bir problem” diyerek bu yüzden insanların ne demeye çalıştığına odaklandıklarını belirtiyor.