Yapay Zeka Artık İnsan Davranışlarını Taklit Edebilir Ve Yakında Tehlikeli İyi OlacakBu yüz sadece bir bilgisayar biti topluluğu mu? PHOTOCREO Michal Bednarek / Shutterstock.com

Yapay zeka sistemleri yaratıcı olmaya başladığında, harika şeyler yaratabilir - ve korkutucu olanları. Örneğin, izin veren bir AI programı alın. web kullanıcıları müzik oluşturur Bir ile birlikte sanal Johann Sebastian Bach Bach benzeri armoniler yaratan bir program içine notlar girerek bunları eşleştirin.

Google tarafından çalıştır, uygulama drew harika övgü Çığır açan ve oynamak için eğlenceli olduğu için. Ayrıca çekti eleştirive AI'nın tehlikeleriyle ilgili endişeleri dile getirdi.

Nasıl çalıştığım ortaya çıkan teknolojiler insanların yaşamlarını etkiliyor Bana sorunların kuşkusuz büyük endişenin ötesine geçtiğini öğretti. algoritmalar gerçekten olabilir müzik oluştur veya genel olarak sanat. Bazı şikayetler Google’ın AI’nın olduğuna dair gözlemler gibi kük görünüyordu, ancak gerçekten değildi temel kuralları çiğnemek Müzik

Aslında, bilgisayarların gerçek insanların davranışlarını taklit etme çabaları kafa karıştırıcı ve potansiyel olarak zararlı olabilir.


kendi kendine abone olma grafiği


Kimliğe bürünme teknolojileri

Google’ın programı, Bach’ın müzik eserlerinin 306’indeki notları analiz ederek melodi ve uyumu sağlayan notlar arasında bir ilişki buldu. Bach, sıkı kompozisyon kurallarına uyduğu için, program bu kuralları etkili bir şekilde öğreniyordu, bu yüzden kullanıcılar kendi notlarını verdiklerinde bunları uygulayabildiler.

 Google Doodle ekibi Bach programını açıklar.

{youtube}XBfYPp6KF2g{/youtube}

Bach uygulaması kendisi yeni, ancak temel teknoloji değildir. Algoritmalar eğitildi kalıpları tanımak ve yapmak olasılıklı kararlar uzun zamandır var. Bu algoritmaların bazıları o kadar karmaşıktır ki, insanlar her zaman anlama Nasıl karar verdiklerini veya belirli bir sonucu nasıl elde ettiklerini.

AI sistemleri mükemmel değil - çoğu güveniyor temsili olmayan veriler tüm nüfusun veya insan önyargılarından etkilenmiş. Tamamen açık değil yasal olarak sorumlu kim olabilir Bir AI sistemi bir hata yaptığında veya bir soruna neden olduğunda.

Şimdi ise, yapay zeka teknolojileri, bireylerin yazma veya konuşma tarzını ve hatta yüz ifadelerini yaklaştırabilecek kadar gelişmiş hale geliyor. Bu her zaman fena değil: Oldukça basit bir AI, Stephen Hawking’e İletişim kurma yeteneği En çok kullanacağı kelimeleri öngörerek diğerleriyle daha verimli.

İnsan seslerini taklit eden daha karmaşık programlar engelli insanlara yardım - ama dinleyicileri aldatmak için de kullanılabilir. Örneğin, yapımcıları Lyrebird, bir ses taklit programı, bir benzetilmiş konuşma Barack Obama, Donald Trump ve Hillary Clinton arasında. Gerçek gelebilir, ancak bu değişim hiç olmadı.

İyiden kötüye

Şubat ayında 2019, kar amacı gütmeyen şirket OpenAI metin üreten bir program yarattı neredeyse metinden ayırt edilemez insanlar tarafından yazılmış. Tarzında bir konuşma “yazabilir” John F. Kennedy, JRR Tolkien “Yüzüklerin Efendisi”Ya da bir öğrenci yazı ABD İç Savaşı ile ilgili bir okul ödevi.

OpenAI'nin yazılımı tarafından üretilen metin o kadar inandırıcıdır ki, şirketin seçtiği serbest bırakmamak programın kendisi.

Benzer teknolojiler fotoğraf ve videoları simüle edebilir. Örneğin, 2018'in başlarında, aktör ve yapımcı Jordan Peele, eski ABD Başkanı Barack Obama’nın gösterdiği gibi görünen bir video hazırladı. Obama'nın aslında söylemediği şeyler halkı bu teknolojilerin yarattığı tehlikeler hakkında uyarmak.

Hangi videolara inandığınıza dikkat edin.

{youtube}cQ54GDm1eL0{/youtube}

2019’in başlarında sahte çıplak fotoğraf ABD Rep. Alexandria Ocasio-Cortez çevrimiçi dolaşıma girdi. Fabrikasyon videolar, sık sık “deepfakes, ”Olması bekleniyor giderek Kullanılmış seçim kampanyalarında.

Kongre Üyeleri bu konuyla ilgilenmeye başladım 2020 seçiminden önce. ABD Savunma Bakanlığı halka öğretiyor doktorlu videolar nasıl belirlenir ve ses. Haber organizasyonları reuters gazetecileri deepfakes'i bulmak için eğitmeye başlıyor.

Ancak, benim görüşüme göre, daha da büyük bir endişe kalıyor: AI teknolojisi daha karmaşık hale geldikçe, kullanıcılar sahte içeriği ayırt etmek için yeterince hızlı öğrenemeyebilir. Örneğin, halk derin derinliklerin farkında olmaya başladığı için, AI zaten daha gelişmiş aldatmacalar için kullanılıyor. Artık üretebilecek programlar var sahte yüzler ve sahte dijital parmak iziEn azından şirket ya da devlet kayıtlarında - tüm bir kişiyi üretmek için gerekli bilgiyi etkin bir şekilde oluşturmak.

Makineler öğrenmeye devam ediyor

Şu anda, bu teknolojilerde insanlara dijital imalatları tespit etme şansı vermek için yeterince potansiyel hata var. Google'ın Bach bestecisi bazı hatalar yaptı Bir uzman tespit edebilir. Örneğin, denedim, program girmeme izin verdi paralel beşinciBach bu müzik aralığı özenle kaçınıldı. Ayrıca uygulama müzikal kuralları çiğne melodileri yanlış tuşa yerleştirerek kontrpuanın değeri. Benzer şekilde, OpenAI'nin metin üretme programı ara sıra “gibi” ifadeler yazdı.su altında gerçekleşen yangınlar“Bağlamlarında anlam ifade etmiyordu.

Geliştiriciler yarattıkları çalışmalar üzerinde çalıştıkça, bu hatalar daha nadir hale gelecektir. Etkili, AI teknolojileri gelişecek ve öğrenecek. Geliştirilmiş performans, AI programları yardım ettiği gibi, daha iyi sağlık bakımı da dahil olmak üzere, birçok sosyal fayda getirme potansiyeline sahiptir. Tıp pratiğini demokratikleştirmek.

Araştırmacılara ve şirketlere keşif yapma özgürlüğü vermek, AI sistemlerinden bu olumlu başarıları elde etmek için aldatma ve diğer sosyal problemleri oluşturmak için daha gelişmiş yollar geliştirme riskini açmak demektir. AI araştırmalarını ciddi şekilde sınırlandırabilir bu ilerlemeyi engellemek. Fakat faydalı teknolojiler vermek büyümek için oda Küçük bir ücret ödemeden gelir - yanlış kullanım, yanlış “Bach benzeri” müzik yapmak veya milyonları aldatmak, insanların henüz tahmin edemediği şekilde büyümesi muhtemeldir.Konuşma

Yazar hakkında

Ana Santos Rutschman, Yardımcı Doçent Saint Louis Üniversitesi

Bu makale şu adresten yeniden yayınlandı: Konuşma Creative Commons lisansı altında. Okumak Orijinal makale.

İlgili Kitaplar

at InnerSelf Pazarı ve Amazon