YouTube'un Algoritmaları İnsanları Radikalize Edebilir - Ama Asıl Sorun Nasıl Çalıştıklarına Dair Bir Fikrimiz Yok Bay Tempter / Shutterstock

YouTube aşırılık yanlıları yaratıyor mu? bir yeni bir çalışma siteyi güçlendiren algoritmaların daha aşırı videolar önererek insanları radikalleştirmeye yardımcı olmadığını savunarak bilim adamları arasında tartışmalara neden oldu. önerilmiştir son yıllarda.

İlk Pazartesi günü açık erişimli dergiye gönderilen ancak henüz resmi olarak hakem olarak incelenmeyen makale, farklı kanal türleri tarafından alınan video önerilerini analiz etti. YouTube'un algoritmasının, radikalleşmenin sitenin algoritmasından daha fazla zararlı içerik oluşturan kişilerle daha fazla ilgisi olduğu sonucuna vararak ana akım medya kanallarını bağımsız içerikten yana tuttuğunu iddia etti.

Alandaki uzmanlar çalışmaya cevap vermek, bazı eleştirilerle makalenin yöntemleri ve algoritmayı tartışan diğerleri birkaç önemli faktör ve sadece veri bilimi bize cevap vermeyecek.

Bu tartışmadaki sorun, YouTube'un algoritmasının insanları radikalleştirmede nasıl bir rol oynadığı sorusuna gerçekten cevap veremememiz çünkü nasıl çalıştığını anlamıyoruz. Ve bu sadece çok daha geniş bir sorunun belirtisidir. Bu algoritmalar günlük yaşamımızda giderek artan bir rol oynamaktadır, ancak herhangi bir şeffaflıktan yoksundur.

YouTube'un radikalleşmede bir rol oynamadığını iddia etmek zor. Bu, ilk olarak, önerilen videoların kullanıcıları yavaş yavaş kullanıcıları nasıl yönlendirdiğini gösteren teknoloji sosyolog Zeynep Tufekci tarafından işaret edildi. daha uç içeriklere doğru. Tufekci'nin sözleriyle, koşu hakkındaki videolar ultramatoralar hakkında videolar, aşılar hakkındaki videolar komplo teorileri ve politika hakkındaki videolar “Holokost inkârları ve diğer rahatsız edici içerik” ile sonuçlanıyor.


kendi kendine abone olma grafiği


Bu ayrıca hakkında yazılmıştır ayrıntılı olarak sitenin öneri algoritması üzerinde çalışan eski YouTube çalışanı Guillaume Chaslot tarafından. Şirketten ayrıldığından beri Chaslot bu tavsiyeleri yapmaya devam etti daha şeffaf. YouTube önerilerinin önyargılı olduğunu söylüyor komplo teorileri ve aslında yanlış videolaryine de insanların sitede daha fazla zaman geçirmesini sağlar.

Aslında, izlenme süresini maksimuma çıkarma YouTube algoritmalarının tüm noktasıdır ve bu, video içerik oluşturucularını dikkat çekmek için mümkün olan her şekilde mücadele etmeye teşvik eder. Şirketin sırf şeffaflık eksikliği bunun tam olarak nasıl çalıştığı hakkında sitede radikalleşmeyle mücadele etmek neredeyse imkansız hale geliyor. Sonuçta, şeffaflık olmadan, durumu iyileştirmek için nelerin değiştirilebileceğini bilmek zordur.

YouTube'un Algoritmaları İnsanları Radikalize Edebilir - Ama Asıl Sorun Nasıl Çalıştıklarına Dair Bir Fikrimiz Yok YouTube'un algoritmasının çalışma şekli bir sır olarak kalıyor. Danny kimdir / Shutterstock

Ancak YouTube bu açıdan sıra dışı değil. Algoritmaların nasıl çalıştığı konusunda şeffaflık eksikliği, özel şirketler veya kamu kurumları tarafından olsun, büyük sistemlerde her kullanıldığında geçerlidir. Size hangi videoyu göstereceğinize karar vermenin yanı sıra, makine öğrenme algoritmaları artık çocukları okula yerleştir, karar verilen hapis cezası, belirlemek kredi puanları ve sigorta oranlarıyanı sıra kaderi göçmenler, iş adayları ve üniversite adayları. Ve genellikle bu sistemlerin kararlarını nasıl aldıklarını anlamıyoruz.

Araştırmacılar, bu algoritmaların toplum üzerindeki etkisini göstermenin yaratıcı yollarını, gerici hakkın doğuşu ya da komplo teorilerinin yayılması YouTube'da veya arama motorları ırkçı önyargıları yansıtıyor onları yaratan insanların

Makine öğrenim sistemleri genellikle büyük, karmaşık ve opaktır. Uygun olarak, genellikle kara kutular, bilgilerin girdiği ve bilgi veya eylemlerin ortaya çıktığı, ancak kimse aralarında ne olduğunu göremez. Bu, YouTube öneri sistemi gibi algoritmaların tam olarak nasıl çalıştığını bilmediğimizden, sitenin nasıl çalıştığını anlamaya çalışmak, kaputu açmadan bir arabayı anlamaya çalışmak anlamına gelir.

Buna karşılık, hangi algoritmaların yapılması veya yapılmaması gerektiğini düzenlemek için yasalar yazmaya çalışmak kör bir süreç veya deneme yanılma haline gelir. YouTube ve diğer birçok makine öğrenme algoritması ile olan şey budur. Gerçekte nasıl çalıştıklarına dair gerçek bir anlayışa sahip olmadan, sonuçlarında söz sahibi olmaya çalışıyoruz. Bu patentli teknolojileri açmamız veya en azından onları düzenleyebileceğimiz kadar şeffaf hale getirmemiz gerekiyor.

Açıklamalar ve test

Bunu yapmanın bir yolu algoritmaların karşı olgusal açıklamalar kararları ile birlikte. Bu, algoritmanın tam mantığını açıklamadan farklı bir karar vermesi için gereken minimum koşulları çalışmak anlamına gelir. Örneğin, banka kredileri hakkında karar veren bir algoritma, “18 yaşından büyükseniz ve önceden borcunuz olmasaydı, banka kredinizi kabul ettirirsiniz” şeklinde bir çıktı üretebilir. Ancak, teoride platformdaki herhangi bir video herhangi bir noktada önerilebileceği için YouTube ve öneri algoritmaları kullanan diğer sitelerle bunu yapmak zor olabilir.

Bir başka güçlü araç, özellikle taraflı algoritmaların teşhisinde yararlı olan algoritma testi ve denetimidir. Son zamanlarda, profesyonel bir özgeçmiş tarama şirketi algoritmasının iki faktöre öncelik vermek iş performansının en iyi yordayıcıları olarak: adayın isminin Jared olup olmadığı ve lisede lakros oynayıp oynamadıkları. Makine denetimsiz hale geldiğinde olan şey budur.

Bu durumda, özgeçmiş tarama algoritması beyaz erkeklerin işe alınma şansının daha yüksek olduğunu fark etti ve işe alınan adaylarda mevcut olan vekil özelliklerin (Jared olarak adlandırılması veya lakros oynamak gibi) bulundu. YouTube ile algoritma denetimi, öneri için hangi tür videolara öncelik verildiğini anlamaya yardımcı olabilir ve belki de YouTube önerilerinin radikalleşmeye katkıda bulunup bulunmadığı konusundaki tartışmanın çözülmesine yardımcı olabilir.

Karşı olgusal açıklamalara girişmek veya algoritma denetimini kullanmak zor ve maliyetli bir süreçtir. Ama önemli, çünkü alternatif daha kötü. Algoritmalar kontrol edilmez ve denetlenmezse, komplo teorisyenlerinin ve aşırılık yanlılarının medyamıza kademeli olarak sürdüğünü ve dikkatimizi en kârlı içeriği üretebilecek kişi tarafından kontrol edildiğini görebilirdik.Konuşma

Yazar Hakkında

Chico Q. Camargo, Veri Biliminde Doktora Sonrası Araştırmacı, Oxford Üniversitesi

Bu makale şu adresten yeniden yayınlandı: Konuşma Creative Commons lisansı altında. Okumak Orijinal makale.