yapay zeka tehlikesi 7 11
Yapay zekanın insanlığı köleleştirmesi pek olası değil, ancak hayatımızın birçok yönünü ele geçirebilir. Getty Images aracılığıyla elenabs/iStock

ChatGPT ve benzeri yapay zeka sistemlerinin yükselişi beraberinde keskin bir AI ile ilgili endişe artışı. Son birkaç aydır, yöneticiler ve yapay zeka güvenlik araştırmacıları, "" olarak adlandırılan tahminler sunuyorlar.P(kıyamet)AI'nın büyük ölçekli bir felakete neden olma olasılığı hakkında.

Mayıs 2023'te kâr amacı gütmeyen araştırma ve savunuculuk kuruluşu Center for AI Safety yayınlandığında endişeler zirveye ulaştı tek cümlelik bir açıklama: "Yapay zekanın neden olduğu yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır." Bildiri, OpenAI, Google ve Anthropic liderlerinin yanı sıra AI'nın sözde "babaları" da dahil olmak üzere alandaki birçok kilit oyuncu tarafından imzalandı: Geoffrey Hinton ve Yoshua Bengio.

Bu tür varoluşsal korkuların nasıl sonuçlanması gerektiğini sorabilirsiniz. Ünlü senaryolardan biri “ataş büyütücü” Oxford filozofu tarafından dile getirilen düşünce deneyi Nick Bostrom. Buradaki fikir, mümkün olduğu kadar çok ataç üretmekle görevli bir AI sisteminin, fabrikaları yok etmek ve araba kazalarına neden olmak gibi hammadde bulmak için olağanüstü uzunluklara gidebileceğidir.

A daha az kaynak yoğun varyasyon diğer müşterilerin bir masa almasını önlemek için hücresel ağları ve trafik ışıklarını kapatan popüler bir restorana rezervasyon yaptırmakla görevli bir yapay zekaya sahiptir.


kendi kendine abone olma grafiği


Ofis malzemeleri veya akşam yemeği, temel fikir aynı: AI hızla bir uzaylı zekası haline geliyor, hedeflere ulaşmada iyi ama tehlikeli çünkü yaratıcılarının ahlaki değerleri ile aynı hizada olmayacak. Ve en aşırı versiyonunda, bu argüman yapay zekalar hakkında açık endişelere dönüşüyor. insan ırkını köleleştirmek veya yok etmek.

Ataş yapan bir yapay zeka çılgına döner, yapay zeka kıyamet senaryosunun bir çeşididir.

 

Gerçek zarar

Son birkaç yılda, meslektaşlarım ve ben UMass Boston'ın Uygulamalı Etik Merkezi AI ile etkileşimin insanların kendilerini anlamaları üzerindeki etkisini inceliyorum ve bu yıkıcı kaygıların abartılı ve yanlış yönlendirilmiş.

Evet, AI'nın inandırıcı derin sahte video ve ses oluşturma yeteneği korkutucu ve kötü niyetli kişiler tarafından kötüye kullanılabilir. Aslında, bu zaten oluyor: Rus ajanlar muhtemelen Kremlin eleştirmenini utandırmaya çalıştı. Bill Browder onu eski Ukrayna Devlet Başkanı Petro Poroshenko'nun bir avatarıyla yaptığı konuşmada tuzağa düşürerek. Siber suçlular, çeşitli suçlar için yapay zeka ses klonlamayı kullanıyor. yüksek teknolojili soygunlar için sıradan dolandırıcılıklar.

AI karar verme sistemleri kredi onayı ve işe alım önerileri sunun üzerinde çalıştıkları eğitim verileri ve karar modelleri uzun süredir devam eden sosyal önyargıları yansıttığı için algoritmik önyargı riski taşırlar.

Bunlar büyük problemler ve politika yapıcıların dikkatini gerektiriyor. Ama bir süredir etraftalar ve neredeyse felaket değiller.

Aynı ligde değil

Yapay Zeka Güvenliği Merkezi'nden yapılan açıklamada, yapay zekayı medeniyet için büyük bir risk olarak salgın hastalıklar ve nükleer silahlarla aynı kefeye koydu. Bu karşılaştırmada sorunlar var. COVID-19 neredeyse sonuçlandı Dünya çapında 7 milyon ölüm, getirilen büyük ve devam eden akıl sağlığı krizi ve yaratıldı ekonomik zorluklar, kronik tedarik zinciri eksiklikleri ve kaçak enflasyon dahil.

Nükleer silahlar muhtemelen öldürüldü fazla 200,000 insan 1945'te Hiroşima ve Nagazaki'de, sonraki yıllarda kanserden çok daha fazla can aldı, Soğuk Savaş sırasında on yıllarca derin bir endişe yarattı ve 1962'deki Küba Füze krizi sırasında dünyayı yok olmanın eşiğine getirdi. ulusal liderlerin hesaplarını değiştirdi şu anda Rusya'nın Ukrayna'yı işgaliyle oynayan uluslararası saldırganlığa nasıl yanıt verileceği konusunda.

AI, bu tür bir hasarı verme yeteneğini kazanmanın yakınından bile geçmiyor. Ataş senaryosu ve buna benzer diğerleri bilim kurgu. Mevcut yapay zeka uygulamaları, geniş kapsamlı yargılarda bulunmak yerine belirli görevleri yürütür. teknoloji karar vermekten ve sonra plan yapmaktan çok uzak size bir restoranda oturacak yer bulmak için trafiği kapatmak veya ataç arzunuzu gidermek için bir araba fabrikasını havaya uçurmak için gerekli hedefler ve ikincil hedefler.

Teknoloji, yalnızca bu senaryolarda yer alan karmaşık çok katmanlı karar verme kapasitesinden yoksun olmakla kalmıyor, aynı zamanda bu tür bir hasara neden olmaya başlamak için kritik altyapımızın yeterli bölümlerine otonom erişime de sahip değil.

İnsan olmanın anlamı

Aslında, AI kullanmanın doğasında var olan bir varoluşsal tehlike vardır, ancak bu risk, kıyamet anlamından ziyade felsefi anlamda varoluşsaldır. Mevcut haliyle AI, insanların kendilerini görme biçimini değiştirebilir. İnsanların insan olmak için gerekli gördüğü yetenekleri ve deneyimleri azaltabilir.

Örneğin, insanlar yargılayan yaratıklardır. İnsanlar rasyonel olarak ayrıntıları tartar ve işte ve boş zamanlarında kimi işe alacakları, kimi ödünç alacakları, ne izleyecekleri vb. konularda günlük muhakeme görüşmeleri yaparlar. Ancak bu yargıların sayısı giderek artıyor. otomatikleştiriliyor ve algoritmalara dağıtılıyor. Bu olurken, dünyanın sonu gelmeyecek. Ancak insanlar yavaş yavaş bu yargıları kendi başlarına yapma kapasitelerini kaybedecekler. İnsanlar ne kadar az yaparlarsa, onları yapmakta muhtemelen o kadar kötü olurlar.

Ya da şansın insanların hayatındaki rolünü düşünün. İnsanlar rastlantısal karşılaşmalara değer verir: tesadüfen bir yer, kişi veya faaliyetle karşılaşmak, onun içine çekilmek ve bu anlamlı buluntularda tesadüfün oynadığı rolü geçmişe dönük olarak takdir etmek. Ancak algoritmik öneri motorlarının rolü, bu tür tesadüfleri azaltmak ve planlama ve tahmin ile değiştirin.

Son olarak, ChatGPT'nin yazma yeteneklerini göz önünde bulundurun. Teknoloji, yüksek öğretimde yazma ödevlerinin rolünü ortadan kaldırma sürecindedir. Aksi takdirde, eğitimciler öğrencilere öğretmek için önemli bir aracı kaybedeceklerdir. eleştirel düşünmek nasıl.

Ölmedi ama azaldı

Yani, hayır, AI dünyayı havaya uçurmayacak. Ancak, çeşitli dar bağlamlarda giderek eleştirel olmayan bir şekilde benimsenmesi, insanların en önemli becerilerinin bazılarının kademeli olarak aşınması anlamına geliyor. Algoritmalar, insanların muhakeme yapma, şans eseri karşılaşmaların tadını çıkarma ve eleştirel düşünmeyi bileme kapasitelerini şimdiden baltalıyor.

İnsan türü bu tür kayıplardan kurtulacaktır. Ancak var olma biçimimiz bu süreçte fakirleşecek. Yaklaşan AI felaketi, tekillik, Skynet veya nasıl düşünürseniz düşünün etrafındaki fantastik endişeler, bu daha ince maliyetleri gölgeliyor. TS Eliot'un ünlü kapanış cümlelerini hatırlayın “İçi Boş Adamlar”: “Dünya böyle sona eriyor,” diye yazdı, “bir patlamayla değil, bir sızlanmayla.”Konuşma

Yazar hakkında

Nir Eisikovits, Felsefe Profesörü ve Uygulamalı Etik Merkezi Direktörü, UMass Boston

Bu makale şu adresten yeniden yayınlandı: Konuşma Creative Commons lisansı altında. Okumak Orijinal makale.