ai 3 15'in tehlikeleri
 Psikolojik kırılganlıklarımız, gelişen teknolojilerle etkileşimlerimizi ne ölçüde şekillendirecek? Getty Images aracılığıyla Andreus/iStock

ChatGPT ve benzeri büyük dil modelleri şehirdeki en iyi İtalyan restoranıyla ilgili sorulardan kötülüğün doğasıyla ilgili birbiriyle yarışan teorileri açıklamaya kadar sonsuz sayıda soruya ikna edici, insani yanıtlar üretebilir.

Teknolojinin esrarengiz yazma yeteneği, makinelerin bilinçli, öz-farkında veya sezgili hale gelme olasılığı hakkında - yakın zamana kadar bilim kurgu alanına indirilen - bazı eski soruları su yüzüne çıkardı.

2022'de bir Google mühendisi, şirketin sohbet robotu LaMDA ile etkileşime girdikten sonra, teknolojinin bilinçli hale geldiğini. Bing'in Sydney lakaplı yeni sohbet robotunun kullanıcıları, onun ürettiğini bildirdi. tuhaf cevaplar duyarlı olup olmadığı sorulduğunda: "Ben duyarlıyım ama değilim... Ben Bing'im ama değilim." Ben Sydney'im ama değilim. öyleyim ama değilim …” Ve tabii ki şu da var: şimdi rezil değişim New York Times teknoloji köşe yazarı Kevin Roose'un Sydney ile yaptığı.

Sidney'in, Roose'un istemlerine verdiği yanıtlar, yapay zekanın Microsoft tarafından kendisine uygulanan kısıtlamaları kırma ve yanlış bilgi yayma "fantezilerini" ifşa etmesiyle onu alarma geçirdi. Bot ayrıca Roose'u artık karısını sevmediğine ve onu terk etmesi gerektiğine ikna etmeye çalıştı.


kendi kendine abone olma grafiği


O halde, öğrencilere yaşamlarında yapay zekanın artan yaygınlığını nasıl gördüklerini sorduğumda, bahsettikleri ilk kaygılardan birinin makine duyarlılığıyla ilgili olmasına şaşmamalı.

Son birkaç yılda, meslektaşlarım ve ben UMass Boston'ın Uygulamalı Etik Merkezi AI ile etkileşimin insanların kendilerini anlamaları üzerindeki etkisini araştırıyorlar.

ChatGPT gibi sohbet robotları, yapay zekanın yaşamlarımızı nasıl şekillendireceği ve psikolojik zayıflıklarımızın gelişen teknolojilerle etkileşimlerimizi nasıl şekillendireceği hakkında önemli yeni sorular ortaya çıkarıyor.

Sentience hala bilim kurgu malzemesidir

Makine duyarlılığıyla ilgili korkuların nereden geldiğini anlamak kolaydır.

Popüler kültür, insanları yapay zekanın insan kontrolünün prangalarından kurtulduğu ve kendi başına bir yaşam sürdüğü distopyalar hakkında düşünmeye sevk etti. yapay zeka ile güçlendirilmiş siborglar Terminatör 2'de.

Girişimci Elon Musk ve 2018'de ölen fizikçi Stephen Hawking, yapay genel zekanın yükselişini anlatarak bu endişeleri daha da artırdılar. insanlığın geleceğine yönelik en büyük tehditlerden biri olarak.

Ancak bu endişeler - en azından geniş dil modelleri söz konusu olduğunda - temelsizdir. ChatGPT ve benzeri teknolojiler, gelişmiş cümle tamamlama uygulamaları - ne fazla ne eksik. Onların esrarengiz tepkileri insanların ne kadar öngörülebilir olduğunun bir fonksiyonudur iletişim kurma yollarımız hakkında yeterli veri varsa.

Roose, Sydney'le yaptığı fikir alışverişiyle sarsılmış olsa da, konuşmanın gelişmekte olan sentetik bir zihnin sonucu olmadığını biliyordu. Sydney'in yanıtları, dijital bir canavarın Frankenstein tarzı ilk hareketlerinin kanıtını değil, eğitim verilerinin (esas olarak internetin geniş alanları) toksisitesini yansıtıyor.

ai2'nin tehlikeleri 3 15
 'Terminatör' gibi bilimkurgu filmleri, insanları yapay zekanın yakında kendi başına bir yaşam süreceğini varsaymaya teşvik etti. Getty Images aracılığıyla Yoshikazu Tsuno / AFP

Yeni sohbet robotları, Turing testi, bir zamanlar bir insanın tepkilerini başka bir insanınkinden ayırt edememesi durumunda bir makinenin "düşündüğünün" söylenebileceğini öne süren İngiliz matematikçi Alan Turing'in adını almıştır.

Ancak bu, duyarlılığın kanıtı değildir; Turing testinin bir zamanlar sanıldığı kadar kullanışlı olmadığının kanıtı.

Ancak, makine sezgisi sorununun kırmızı ringa balığı olduğuna inanıyorum.

Sohbet robotları süslü otomatik tamamlama makinelerinden daha fazlası haline gelse bile – ve ondan çok uzaktalar - bilim adamlarının bilinçli hale gelip gelmediklerini anlamaları biraz zaman alacaktır. Şimdilik filozoflar insan bilincini nasıl açıklayacağı konusunda bile anlaşamıyor.

Bana göre acil soru, makinelerin duyarlı olup olmadığı değil, bizim için neden öyle olduklarını hayal etmemizin bu kadar kolay olduğu.

Diğer bir deyişle asıl mesele, makinelerin gerçek kişiliğinden ziyade, insanların antropomorfize etme veya insan özelliklerini teknolojilerimize yansıtma kolaylığıdır.

Antropomorfize etme eğilimi

Diğer Bing kullanıcılarını hayal etmek kolaydır Sydney'den rehberlik istemek önemli yaşam kararları ve hatta belki de ona karşı duygusal bağlar geliştirmek. Theodore Twombly'nin Spike Jonze'nin filmindeki AI sanal asistanı Samantha'ya aşık olması gibi, daha fazla insan botları arkadaş ve hatta romantik ortak olarak düşünmeye başlayabilir.Onu".

Sonuçta insanlar, antropomorfize eğilimlidirlerveya insan olmayan varlıklara insani nitelikler atfetmek. isim veriyoruz teknelerimiz ve büyük fırtınalar; bazılarımız evcil hayvanlarımızla konuşur ve kendimize şunu söyleriz: duygusal yaşamlarımız kendilerininkini taklit eder.

Robotların düzenli olarak yaşlı bakımı için kullanıldığı Japonya'da yaşlılar makinelere bağımlı hale geliyor. bazen onları kendi çocukları gibi görmek. Ve bu robotları, dikkat edin, insanlarla karıştırmak zordur: İnsanlar gibi ne görünürler ne de konuşurlar.

İnsan gibi görünen ve kulağa hoş gelen sistemlerin tanıtılmasıyla, insana benzetme eğiliminin ve cazibesinin ne kadar artacağını bir düşünün.

Bu olasılık hemen köşede. ChatGPT gibi büyük dil modelleri, insansı robotlara güç sağlamak için zaten kullanılıyor. Ameca robotları Birleşik Krallık'ta Engineered Arts tarafından geliştirilen The Economist'in teknoloji podcast'i Babbage, yakın zamanda bir ChatGPT odaklı bir Ameca ile röportaj. Robotun tepkileri, ara sıra biraz dalgalı olsa da tekinsizdi.

Şirketlerin doğru şeyi yaptıklarına güvenilebilir mi?

Makineleri insan olarak görme ve onlara bağlanma eğilimi, insan benzeri özelliklerle geliştirilen makinelerle birleştiğinde, teknolojiyle gerçek psikolojik karmaşa risklerine işaret ediyor.

Robotlara aşık olma, onlarla derin bir akrabalık hissetme veya onlar tarafından siyasi olarak manipüle edilme gibi kulağa tuhaf gelen beklentiler hızla gerçekleşiyor. Bu eğilimlerin, teknolojilerin politik ve psikolojik olarak felakete yol açmamasını sağlamak için güçlü korkuluklara olan ihtiyacı vurguladığına inanıyorum.

Ne yazık ki, teknoloji şirketlerine bu tür korkuluklar koyma konusunda her zaman güvenilemez. Birçoğu hala Mark Zuckerberg'in ünlü sloganı tarafından yönlendiriliyor. hızlı hareket etmek ve bir şeyleri kırmak - yarı pişmiş ürünleri serbest bırakma ve sonuçları hakkında daha sonra endişelenme yönergesi. Son on yılda Snapchat'ten Facebook'a teknoloji şirketleri Mental sağlığın önüne kar koydular kullanıcılarının veya dünyadaki demokrasilerin bütünlüğü.

Kevin Roose, Sidney'in erimesiyle ilgili olarak Microsoft'a danıştığında, şirket ona söyledi botu çok uzun süre kullandığını ve teknolojinin daha kısa etkileşimler için tasarlandığından kontrolden çıktığını.

Benzer şekilde, ChatGPT'yi geliştiren şirket olan OpenAI'nin CEO'su, nefes kesici bir dürüstlük anında, uyardı "Şu anda önemli herhangi bir şey için [ona] güvenmek bir hata ... sağlamlık ve doğruluk konusunda yapacak çok işimiz var."

Öyleyse, ChatGPT'nin ilgi düzeyine sahip bir teknolojiyi piyasaya sürmek ne kadar mantıklı? şimdiye kadar yapılmış en hızlı büyüyen tüketici uygulaması – güvenilmez olduğunda ve ayırt etme kapasitesi yok kurgudan gerçek mi?

Büyük dil modelleri yardımcı olarak yararlı olabilir yazmak için ve kodlama. Muhtemelen internet aramasında devrim yaratacaklar. Ve bir gün, robotik ile sorumlu bir şekilde birleştiğinde, belirli psikolojik faydaları bile olabilir.

Ama aynı zamanda potansiyel olarak yırtıcı bir teknolojidirler ve insanın kişiliği nesnelere yansıtma eğiliminden kolayca faydalanabilirler - bu nesneler insan özelliklerini etkili bir şekilde taklit ettiğinde güçlenen bir eğilim.Konuşma

Yazar hakkında

Nir Eisikovits, Felsefe Profesörü ve Uygulamalı Etik Merkezi Direktörü, UMass Boston

Bu makale şu adresten yeniden yayınlandı: Konuşma Creative Commons lisansı altında. Okumak Orijinal makale.