4rupi02z

R. Classen / Shutterstock

Yapay zeka sohbet robotları, işletmeler tarafından müşterileri selamlamak ve sorularını telefonda veya web sitelerinde yanıtlamak için zaten yaygın olarak kullanılıyor. Bazı şirketler, çağrı merkezi rollerinde bir dereceye kadar insanların yerine makineleri koyabileceklerini keşfettiler.

Ancak mevcut kanıtlar, sağlık hizmetleri ve insan kaynakları gibi bu ön saflardaki araçların kullanımı konusunda son derece dikkatli olunması gereken ve etik gözetimin gerekli olabileceği sektörlerin bulunduğunu göstermektedir.

Yakın zamandaki ve oldukça duyurulan bir örnek, Tessa adlı sohbet robotutarafından kullanılan, Ulusal Yeme Bozukluğu Derneği (NEDA) ABD'de. Kuruluş başlangıçta maaşlı çalışanlar ve gönüllülerden oluşan bir kombinasyon tarafından işletilen bir yardım hattını sürdürüyordu. Bunun açık amacı, yeme bozukluğu çeken savunmasız insanlara yardım etmekti.

Ancak bu yıl organizasyon Yardım hattı personelini dağıttı, bunların yerini Tessa chatbot'un alacağını duyurdu. Bunun nedenleri tartışmalıdır. Eski işçiler, vardiyanın yardım hattı personelinin sendikalaşma kararı sonrasında gerçekleştiğini iddia ediyor. NEDA başkan yardımcısı alıntı yaptı artan çağrı ve bekleme sürelerinin yanı sıra gönüllü personelin kullanımına ilişkin yasal yükümlülükler.

Durum ne olursa olsun, çok kısa bir operasyon süresinden sonra Tessa, chatbot'un yeme bozuklukları için yardım arayan insanların semptomlarını şiddetlendirebilecek sorunlu tavsiyeler verdiği yönündeki raporlar üzerine çevrimdışına alındı.


kendi kendine abone olma grafiği


Ayrıca bildirildi Dr Ellen Fitzsimmons-Craft ve Dr C Barr TaylorTessa'nın yaratılmasına yardımcı olan iki yüksek vasıflı araştırmacı, chatbot'un asla mevcut bir yardım hattının yerini alması veya yoğun yeme bozukluğu semptomları yaşayan kişilere acil yardım sağlama amacı taşımadığını belirtmişti.

Önemli yükseltme

Peki Tessa ne için tasarlandı? Araştırmacılar, meslektaşlarıyla birlikte bir gözlemsel çalışma Yeme bozuklukları konusunda endişe duyan kullanıcılarla etkileşime girecek kural tabanlı bir sohbet robotu tasarlarken karşılaştıkları zorlukların altını çiziyor. Tasarım seçimlerini, operasyonlarını, tuzakları ve değişiklikleri gösteren oldukça etkileyici bir okuma.

Tessa'nın orijinal versiyonu gelenekseldi. kural tabanlı sohbet robotu, oldukça rafine olmasına rağmen, mantığa dayalı olarak önceden tanımlanmış bir yapıyı takip eden bir yapıdır. Yaratıcıları tarafından kalibre edilen standartlaştırılmış, önceden programlanmış yanıtlardan sapamazdı.

Vardıkları sonuç şu noktayı içeriyordu: "Kural tabanlı sohbet robotları, bilgi sağlama ve basit etkileşimler sağlama konusunda düşük maliyetle büyük popülasyonlara ulaşma potansiyeline sahiptir, ancak beklenmedik kullanıcı yanıtlarını anlama ve bunlara uygun şekilde yanıt verme konusunda sınırlıdır".

Bu, Tessa'nın uygun olduğu kullanımları sınırlıyor gibi görünebilir. Peki daha önce NEDA tarafından kullanılan yardım hattının yerini nasıl aldı? Olayların kesin zinciri, farklı hesaplar arasında tartışılıyor ancak NPR'ye göre, sohbet robotunun barındırma şirketi, Tessa'yı önceden programlanmış yanıtlara sahip kurallara dayalı bir sohbet robotundan, “gelişmiş soru ve cevap özelliği”.

Tessa'nın sonraki sürümü, ChatGPT ve benzeri ürünlere çok benzer şekilde üretken yapay zeka kullanan bir sürümdü. Bu gelişmiş yapay zeka sohbet robotları, daha gerçekçi ve kullanışlı yanıtlar vermek amacıyla insanların konuşma kalıplarını simüle etmek için tasarlandı. Bu özelleştirilmiş yanıtların oluşturulması, yapay zeka modellerinin çeşitli teknolojik süreçler aracılığıyla "anlamak" üzere eğitildiği geniş bilgi veritabanlarına dayanır: makine öğrenme, derin öğrenme ve doğal dil işleme.

Öğrenme dersleri

Sonuçta chatbot, bazı kullanıcıların sorularına potansiyel olarak zararlı olarak tanımlanan yanıtlar üretti. Devam eden tartışmalar suçun bir kurumdan diğerine kaydırılmasına neden oldu. Bununla birlikte, etik gözetim sağlayan bir organ, "döngüde bir insan" ve Tessa'nın orijinal tasarımının açık amacına bağlılık olsaydı, ortaya çıkan koşulların potansiyel olarak önlenebileceği gerçeği devam ediyor.

Yapay zekanın çeşitli sistemlere entegrasyonuna yönelik telaşın arka planında bu gibi vakalardan dersler çıkarmak önemlidir. Ve bu olaylar ABD'de yaşanırken, diğer ülkelerde de aynısını yapmak isteyenler için dersler içeriyor.

İngiltere'nin bu konuya biraz parçalı bir yaklaşımı var gibi görünüyor. Veri Etiği ve Yenilik Merkezi'nin (CDEI) danışma kurulu yakın zamanda çözüldü ve masadaki koltuğu yeni oluşturulan Frontier AI Görev Gücü tarafından dolduruldu. Ayrıca yapay zeka sistemlerinin, bir yardım hattının yerine geçmese de, işçilere yardım edecek araçlar olarak Londra'da zaten denendiğine dair raporlar da var.

Bu örneklerin her ikisi de etik hususlar ile ticari çıkarlar arasındaki potansiyel gerilimi vurgulamaktadır. Bireylerin refahı ile yapay zekanın sağlayabileceği verimlilik ve faydalar arasında denge kurarak bu ikisinin eninde sonunda uyum sağlayacağını ummalıyız.

Ancak kuruluşların halkla etkileşime girdiği bazı alanlarda, yapay zekanın ürettiği yanıtlar ve simüle edilmiş empati, özellikle tıp ve zihinsel sağlık alanlarında, gerçek insanlığın ve şefkatin yerini almak için asla yeterli olmayabilir.Konuşma

Mark Tsagas, Öğretim Görevlisi, Ceza Hukuku, Doğu Londra Üniversitesi

Bu makale şu adresten yeniden yayınlandı: Konuşma Creative Commons lisansı altında. Okumak Orijinal makale.