YouTube'un Algoritmaları İnsanları Radikalize Edebilir - Ama Asıl Sorun Nasıl Çalıştıklarına Dair Bir Fikrimiz Yok

YouTube'un Algoritmaları İnsanları Radikalize Edebilir - Ama Asıl Sorun Nasıl Çalıştıklarına Dair Bir Fikrimiz Yok Bay Tempter / Shutterstock

YouTube aşırılık yanlıları yaratıyor mu? bir yeni bir çalışma siteyi güçlendiren algoritmaların daha aşırı videolar önererek insanları radikalleştirmeye yardımcı olmadığını savunarak bilim adamları arasında tartışmalara neden oldu. önerilmiştir son yıllarda.

İlk Pazartesi günü açık erişimli dergiye gönderilen ancak henüz resmi olarak hakem olarak incelenmeyen makale, farklı kanal türleri tarafından alınan video önerilerini analiz etti. YouTube'un algoritmasının, radikalleşmenin sitenin algoritmasından daha fazla zararlı içerik oluşturan kişilerle daha fazla ilgisi olduğu sonucuna vararak ana akım medya kanallarını bağımsız içerikten yana tuttuğunu iddia etti.

Alandaki uzmanlar çalışmaya cevap vermek, bazı eleştirilerle makalenin yöntemleri ve algoritmayı tartışan diğerleri birkaç önemli faktör ve sadece veri bilimi bize cevap vermeyecek.

Bu tartışmadaki sorun, YouTube'un algoritmasının insanları radikalleştirmede nasıl bir rol oynadığı sorusuna gerçekten cevap veremememiz çünkü nasıl çalıştığını anlamıyoruz. Ve bu sadece çok daha geniş bir sorunun belirtisidir. Bu algoritmalar günlük yaşamımızda giderek artan bir rol oynamaktadır, ancak herhangi bir şeffaflıktan yoksundur.

YouTube'un radikalleşmede bir rol oynamadığını iddia etmek zor. Bu, ilk olarak, önerilen videoların kullanıcıları yavaş yavaş kullanıcıları nasıl yönlendirdiğini gösteren teknoloji sosyolog Zeynep Tufekci tarafından işaret edildi. daha uç içeriklere doğru. Tufekci'nin sözleriyle, koşu hakkındaki videolar ultramatoralar hakkında videolar, aşılar hakkındaki videolar komplo teorileri ve politika hakkındaki videolar “Holokost inkârları ve diğer rahatsız edici içerik” ile sonuçlanıyor.

Bu ayrıca hakkında yazılmıştır ayrıntılı olarak sitenin öneri algoritması üzerinde çalışan eski YouTube çalışanı Guillaume Chaslot tarafından. Şirketten ayrıldığından beri Chaslot bu tavsiyeleri yapmaya devam etti daha şeffaf. YouTube önerilerinin önyargılı olduğunu söylüyor komplo teorileri ve aslında yanlış videolaryine de insanların sitede daha fazla zaman geçirmesini sağlar.

Aslında, izlenme süresini maksimuma çıkarma YouTube algoritmalarının tüm noktasıdır ve bu, video içerik oluşturucularını dikkat çekmek için mümkün olan her şekilde mücadele etmeye teşvik eder. Şirketin sırf şeffaflık eksikliği bunun tam olarak nasıl çalıştığı hakkında sitede radikalleşmeyle mücadele etmek neredeyse imkansız hale geliyor. Sonuçta, şeffaflık olmadan, durumu iyileştirmek için nelerin değiştirilebileceğini bilmek zordur.


InnerSelf'ten En Son Haberleri Alın


YouTube'un Algoritmaları İnsanları Radikalize Edebilir - Ama Asıl Sorun Nasıl Çalıştıklarına Dair Bir Fikrimiz Yok YouTube'un algoritmasının çalışma şekli bir sır olarak kalıyor. Danny kimdir / Shutterstock

Ancak YouTube bu açıdan sıra dışı değil. Algoritmaların nasıl çalıştığı konusunda şeffaflık eksikliği, özel şirketler veya kamu kurumları tarafından olsun, büyük sistemlerde her kullanıldığında geçerlidir. Size hangi videoyu göstereceğinize karar vermenin yanı sıra, makine öğrenme algoritmaları artık çocukları okula yerleştir, karar verilen hapis cezası, belirlemek kredi puanları ve sigorta oranlarıyanı sıra kaderi göçmenler, iş adayları ve üniversite adayları. Ve genellikle bu sistemlerin kararlarını nasıl aldıklarını anlamıyoruz.

Araştırmacılar, bu algoritmaların toplum üzerindeki etkisini göstermenin yaratıcı yollarını, gerici hakkın doğuşu ya da komplo teorilerinin yayılması YouTube'da veya arama motorları ırkçı önyargıları yansıtıyor onları yaratan insanların

Makine öğrenim sistemleri genellikle büyük, karmaşık ve opaktır. Uygun olarak, genellikle kara kutular, bilgilerin girdiği ve bilgi veya eylemlerin ortaya çıktığı, ancak kimse aralarında ne olduğunu göremez. Bu, YouTube öneri sistemi gibi algoritmaların tam olarak nasıl çalıştığını bilmediğimizden, sitenin nasıl çalıştığını anlamaya çalışmak, kaputu açmadan bir arabayı anlamaya çalışmak anlamına gelir.

Buna karşılık, hangi algoritmaların yapılması veya yapılmaması gerektiğini düzenlemek için yasalar yazmaya çalışmak kör bir süreç veya deneme yanılma haline gelir. YouTube ve diğer birçok makine öğrenme algoritması ile olan şey budur. Gerçekte nasıl çalıştıklarına dair gerçek bir anlayışa sahip olmadan, sonuçlarında söz sahibi olmaya çalışıyoruz. Bu patentli teknolojileri açmamız veya en azından onları düzenleyebileceğimiz kadar şeffaf hale getirmemiz gerekiyor.

Açıklamalar ve test

Bunu yapmanın bir yolu algoritmaların karşı olgusal açıklamalar kararları ile birlikte. Bu, algoritmanın tam mantığını açıklamadan farklı bir karar vermesi için gereken minimum koşulları çalışmak anlamına gelir. Örneğin, banka kredileri hakkında karar veren bir algoritma, “18 yaşından büyükseniz ve önceden borcunuz olmasaydı, banka kredinizi kabul ettirirsiniz” şeklinde bir çıktı üretebilir. Ancak, teoride platformdaki herhangi bir video herhangi bir noktada önerilebileceği için YouTube ve öneri algoritmaları kullanan diğer sitelerle bunu yapmak zor olabilir.

Bir başka güçlü araç, özellikle taraflı algoritmaların teşhisinde yararlı olan algoritma testi ve denetimidir. Son zamanlarda, profesyonel bir özgeçmiş tarama şirketi algoritmasının iki faktöre öncelik vermek iş performansının en iyi yordayıcıları olarak: adayın isminin Jared olup olmadığı ve lisede lakros oynayıp oynamadıkları. Makine denetimsiz hale geldiğinde olan şey budur.

Bu durumda, özgeçmiş tarama algoritması beyaz erkeklerin işe alınma şansının daha yüksek olduğunu fark etti ve işe alınan adaylarda mevcut olan vekil özelliklerin (Jared olarak adlandırılması veya lakros oynamak gibi) bulundu. YouTube ile algoritma denetimi, öneri için hangi tür videolara öncelik verildiğini anlamaya yardımcı olabilir ve belki de YouTube önerilerinin radikalleşmeye katkıda bulunup bulunmadığı konusundaki tartışmanın çözülmesine yardımcı olabilir.

Karşı olgusal açıklamalara girişmek veya algoritma denetimini kullanmak zor ve maliyetli bir süreçtir. Ama önemli, çünkü alternatif daha kötü. Algoritmalar kontrol edilmez ve denetlenmezse, komplo teorisyenlerinin ve aşırılık yanlılarının medyamıza kademeli olarak sürdüğünü ve dikkatimizi en kârlı içeriği üretebilecek kişi tarafından kontrol edildiğini görebilirdik.Konuşma

Yazar Hakkında

Chico Q. Camargo, Veri Biliminde Doktora Sonrası Araştırmacı, Oxford Üniversitesi

Bu makale şu adresten yeniden yayınlandı: Konuşma Creative Commons lisansı altında. Okumak Orijinal makale.

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf'i takip et

facebook-icontwitter-ikonrss-ikon

E-posta ile son alın

{Emailcloak = off}

EDİTÖRLERDEN

GOP için Hesaplaşma Günü Geldi
by Robert Jennings, InnerSelf.com
Cumhuriyetçi parti artık Amerika yanlısı bir siyasi parti değil. Belirtilen hedefi bozmak, istikrarsızlaştırmak ve ...
Donald Trump Neden Tarihin En Büyük Kaybını Olabilir?
by Robert Jennings, InnerSelf.com
Updated 2 Temmuz 20020 - Bu bütün koronavirüs pandemisi bir servet, belki 2 veya 3 veya 4 servet, tüm bilinmeyen boyutu mal oluyor. Oh evet, ve yüz binlerce, belki bir milyon insan ölecek…
Blue-Eyes vs Brown Eyes: Irkçılık Nasıl Öğretilir
by Marie T. Russell, İçsel
Bu 1992 Oprah Show bölümünde, ödüllü ırkçılık karşıtı aktivist ve eğitimci Jane Elliott, önyargı öğrenmenin ne kadar kolay olduğunu göstererek izleyicilere ırkçılık hakkında zor bir ders verdi.
Bir Değişiklik Gelecek ...
by Marie T. Russell, İçsel
(30 Mayıs 2020) Philadephia ve ülkenin diğer şehirlerindeki olaylarla ilgili haberleri izlerken, kalbim geçenlere ağrıyor. Bunun büyük değişimin bir parçası olduğunu biliyorum…
Bir Şarkı Kalbi ve Ruhu Yükseltebilir
by Marie T. Russell, İçsel
İçinde süzüldüğünü fark ettiğimde karanlığı aklımdan temizlemek için kullandığım birkaç yol var. Biri bahçecilik ya da doğada zaman geçirmek. Diğeri sessizlik. Başka bir yol okumaktır. Ve bir tane…