AI, eşinizle nasıl konuştuğunuza dayanarak ilişkinizin en son sürüp sürülmeyeceğini tahmin edebilir

Bağırmak ya da alay etmek gibi ses tonlarından dolayı azarlanan herhangi bir çocuk (ya da eş) yol Birisiyle konuşabildiğin kadar önemli olabilir. sözler kullandığın Sesli sanatçılar ve aktörler bundan çok yararlanırlar - bazen konuşma biçiminde anlam ifade etme konusunda yeteneklidirler, bazen tek kelimelerin hak ettiğinden çok daha fazla.

Fakat ses tonumuz ve konuşma düzenimizde ne kadar bilgi taşınıyor ve bu başkalarıyla ilişkilerimizi nasıl etkiliyor? Hesaplamalı sistemler zaten kurabilir insanların seslerinden kimbize aşk hayatımız hakkında da bir şeyler söyleyebilirler mi? Şaşırtıcı, öyle görünüyor.

Yeni araştırma PLOS-ONE dergisinde henüz yayınlandı, tedavi gören 134 çiftlerinin ses özelliklerini analiz etti. Güney Kaliforniya Üniversitesi'nden araştırmacılar, iki yıl boyunca terapi oturumu katılımcılarının kayıtlarından standart konuşma analizi özelliklerini çıkarmak için bilgisayar kullandılar. Özellikler - dahil zift, zift ve tonlamadaki değişiklik - hepsi ton ve yoğunluk gibi ses yönleriyle ilgilidir.

Makine sesi öğrenme algoritması, bu ses özellikleri ile tedavinin nihai sonucu arasındaki ilişkiyi öğrenmek için eğitildi. Bu, bağırmak veya yükseltilmiş sesleri tespit etmek kadar basit değildi - seslerin ne zaman ve ne kadar uzun süre konuştuğunu soran konuşma etkileşimi içeriyordu. Söylenenleri görmezden gelmenin ve sadece bu konuşma modellerini göz önünde bulundurmanın, çiftlerin bir arada kalamayacaklarını tahmin etmek için yeterli olduğu ortaya çıktı. Bu tamamen veriye dayalıydı, dolayısıyla sonuçları belirli ses özellikleriyle ilişkilendirmedi.

Bir ses tonu birkaç kelimenin anlamını nasıl değiştirebilir?

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


kendi kendine abone olma grafiği


İlginç bir şekilde, terapi oturumunun tam video kayıtları daha sonra sınıflandırılması için uzmanlara verildi. AI'nın aksine, sözlü ve beden dili de dahil olmak üzere vokal (ve diğer) niteliklere dayalı psikolojik değerlendirme kullanarak tahminlerini yaptılar. Şaşırtıcı bir şekilde, nihai sonucun öngörülmesi (vakaların% 75.6'inde doğruydu) AI'nın sadece vokal özelliklere dayanan (% 79.3) tahminlerinden daha düşüktü. Açıkçası, konuşma biçimimizde kodlanmış ve uzmanların bile bilmediği unsurlar var. Ancak en iyi sonuçlar otomatik değerlendirmeyi uzmanların değerlendirmesiyle birleştirmekten geldi (% 79.6 doğru).

Bunun önemi, AI'yı evlilik danışmanlığına dahil etmek ya da çiftlerin birbirleriyle daha iyi konuşmak için konuşabilmeleri değildir (ancak, olması gereken değerli). Önem, altta yatan duygularımızla ilgili ne kadar bilginin konuşma biçimimizde kodlandığını ortaya koyuyor - bazıları bizim için tamamen bilinmiyor.

Bir sayfada veya ekranda yazılan sözcüklerin sözlük tanımlarından türetilen sözlük anlamları vardır. Bunlar, çevreleyen kelimelerin bağlamı tarafından değiştirilir. Yazımda büyük bir karmaşıklık olabilir. Ancak kelimeler yüksek sesle okunduğunda, sözcük vurgusu, ses, konuşma hızı ve ses tonu tarafından iletilen başka anlamlar üstlendikleri doğrudur. Tipik bir sohbette, her konuşmacının ne kadar süre konuşacağı ve bir veya diğerinin ne kadar çabuk araya girebileceği de bir anlam ifade eder.

“Kimsin sen?” Sorusunu düşünün. Bunu farklı kelimeler üzerinde stresle konuşmayı deneyin; “Kim? sen? ”,“ Kim vardır sen ve "Kim sen?". Bunları dinle - Anlamsal anlam, kelimeler aynı kalsa bile okuduğumuz şekilde değişebilir.

'Sızıntı duyusu' yazan bilgisayarlar?

Sözlerin nasıl konuşulduğuna bağlı olarak farklı anlamlar taşımaları şaşırtıcı değildir. Ayrıca bilgisayarların konuşmayı nasıl seçtiğimizin arkasındaki anlamı yorumlayabilmesi şaşırtıcı değildir (belki bir gün onlar bile yapabileceklerdir) ironi anlamak).

Ancak bu araştırma, bir cümlenin aktardığı anlama bakmanın ötesinde bir şeydir. Cümlelerin ardında yatan tutum ve düşünceleri ortaya koyuyor gibi görünüyor. Bu çok daha derin bir anlayış seviyesidir.

Terapi katılımcıları aktörler gibi kelimeler okumuyorlardı. Sadece doğal olarak konuşuyorlardı - ya da bir terapistin ofisinde yapabildikleri kadar doğal. Ve yine de analiz, konuşmalarına yanlışlıkla “sızıntı yaptıkları” karşılıklı duyguları hakkında bilgiler ortaya koydu. Bu, gerçekten ne düşündüğümüzü veya hissettiğimizi belirlemek için bilgisayarları kullanmadaki ilk adımlardan biri olabilir. Gelecekteki akıllı telefonlarla sohbet ederken bir an için düşünün - alabilecekleri bilgileri “sızdırıyor muyuz?” Nasıl cevap verecekler?

Birlikte konuşmamızı dinleyerek bize potansiyel ortaklar hakkında tavsiyede bulunabilirler mi? Antisosyal davranışa, şiddete, depresyona veya diğer koşullara karşı bir eğilim tespit edebiliyorlar mı? Hayal etmek, hayal gücünün bir sıçraması olmazdı. Gelecekteki terapistler olarak kendilerini cihazlar - sundukları müdahalelerin etkinliğini izlemek için çeşitli şekillerde bizimle etkileşimde bulunmak.

Endişelenme, çünkü biz böyle bir gelecekten yıllarca uzaktayız, Gizlilik sorunlarıÖzellikle de bilgisayarlarla daha derinden etkileşime girdiklerinde, aynı zamanda çevrelerindeki dünyayı analiz etmede daha güçlü hale geliyorlar.

KonuşmaDiğer insanın duyularını sesten ayrı düşünmeye de ara verdiğimizde (konuşma); belki de görme (beden dili, utanma gibi), dokunma (sıcaklık ve hareket) ve hatta koku (feromonlar) yoluyla bilgi sızdırıyoruz. Akıllı cihazlar nasıl konuştuğumuzu dinleyerek çok şey öğrenebilirse, biri harika diğer duyulardan ne kadar daha fazlasını toplayabilirlerdi.

Yazar hakkında

Ian McLoughlin, Bilgisayar Profesörü, Okul Müdürü (Medway), University of Kent

Bu yazı orijinalinde Konuşma. Okumak Orijinal makale.

İlgili Kitaplar:

at InnerSelf Pazarı ve Amazon