Algoritmalara göre sıralama bizi kutulara yerleştirir. Onların doğru olduğunu nasıl bilebiliriz? oluşturuldu, CC BYAlgoritmalara göre sıralama bizi kutulara yerleştirir. Onların doğru olduğunu nasıl bilebiliriz? oluşturuldu, CC BY

Toplum, hayatımızın bilgisayar algoritmalarının incelemesine tabi olduğu bir noktaya gelmiş gibi görünüyor. Ürettiğimiz veriler, hükümetlerin ulusal güvenlik için mi yoksa kar amaçlı şirketler tarafından mı yapıldığına bakılmaksızın incelenmekte ve analiz edilmektedir - ve bunun değişmesi muhtemel değildir - bir kez bulunan veri analizinin gücü ve temyizi kolay bir şekilde verilmeyecektir.

Fakat gerçekte, verilerimizin toplanmasından daha fazla endişe duyup duymadığımdan veya bize karar veren algoritmalar hakkında hiçbir şey bilmediğimizden dolayı merak ediyorum.

Geride bıraktığımız verilerden elde edilebilecek yaşamlarımız ve alışkanlıklarımızla ilgili detay seviyesi daha önce tartışılmıştı ve Birleşik Krallık taslağı tartışmasının bir parçası olarak taze bir hava almaya başladı Soruşturma Yetkileri Bill. En azından hangi verilerin toplandığı ve ne süreyle saklandığı hakkında bir kısmı İngiltere ve Avrupa yasalarına tabi olan bir şey biliyoruz.

içinde taslak fatura metniörneğin, Birleşik Krallık hükümetinin iletişim meta verilerine, e-postaların başlıklarına ve konularına ve telefon görüşmesi kayıtlarına “yalnızca” (talep edilmeden) erişim talebinde bulunacağını biliyoruz. Ancak, meta verilerin yalnızca nasıl açığa çıkarılabileceğini de biliyoruz: MIT Media Lab'ın Daldırma Projesi Çünkü ondan ne kadar ayrıntı öğrenilebileceğinin güçlü bir örneği. Kesinlikle belirli bir telefon faturasıyla hiçbir şekilde karşılaştırılamaz, iddia edildiği gibi.


kendi kendine abone olma grafiği


Bu yüzden, daha iyi veya daha kötüsü için, halk, kaydedilmiş olan hakkında bazı ipuçları veriyoruz. Ancak bu verilere hangi analitik araç ve tekniklerin uygulandığı konusunda hiçbir fikrimiz yok - ve bunun önemi göz ardı edilmemelidir.

Sayıları Ne Egzersizi?

Eğitimli tahminler yapabiliriz. Ulusal güvenlik kuruluşları muhtemelen meta verilerimizi insanlar ve yerler arasında, diğer şeylerin yanı sıra bizi birbirine bağlayan sosyal ağlar oluşturmak için kullanırlar. Bu ilişki ağları, ilgilenilen bir kişi olup olmadığımızı belirlemek için, ilgilenilen diğer insanlarla nasıl karşılaştıracağınız ve var olan ilgililere veya bunlarla ilgili olanlara nasıl bağlanacağınız ile belirlenir.

Bu teknikleri kullanan araştırmacılar sınırlamalarını anlarlar ve onları güçlendiren algoritmaların çıktıları üzerinde derin bir etkiye sahip hatalar veya temel varsayımlar içerebileceğini bilirler. Bu durumda, bu bir terörist olarak etiketlenmiş olup olmamanız veya bir kredi veya ipotek için hak kazanıp kazanmadığınız anlamına gelebilir.

Bulanık sınır bölgelerinde, ilişkinin varlığının nerede tanımlandığı da tam olarak belli değil. Bir teröristle aynı web sitesini ziyaret etmek, paylaşılan değerler anlamına mı geliyor, yoksa her gün aynı otobüs güzergahını kullanmak teröristlerle düzenli olarak görüşmenizi mi tavsiye ediyor? Bilinen teröristlerin uğrak yeri olan siteleri birçok meşru sebeple ziyaret etmek oldukça mümkündür. Haberinizi teröristlerle aynı internet sitelerinden alırsanız, terörist olma ihtimaliniz daha yüksektir? Ayrımcılık ve önyargı veri toplama noktasında ve daha sonra bu verilerin nasıl analiz edileceğine dair kararlar alındığında tekrar verilebilir. Algoritmalar da ayrımcılık yapabilir.

Bulanık Sınırlar

Algoritmaların istenmeyen önyargıları ortaya koyma olasılığı çok gerçektir. Örneğin, güvenlik servisleri tarafından kullanılanlar, bilinen teröristlerin ve terörist olmayanların veri setleri üzerinde eğitilmektedir. Bu demek oluyor ki Bilinen teröristlerin çoğu erkeğe göre 20-30Diğer niteliklerinize bakmaksızın kabaca sadece erkek ve yaşlı olmak üzere bir terörist olarak sınıflandırılma ihtimaliniz daha fazladır 20-30. Eğer öyleyse, bunun verinin nasıl kullanıldığı üzerinde önemli bir etkisi var mı?

Sorun, ben ve karmaşık ağ analizi, makine öğrenmesi, örüntü eşleme veya yapay zeka teknikleri kullanan diğer akademik araştırmacıların, tekniklerin gücünü ve sonuçların geçerliliğini belirlemek için genel olarak gözden geçirilen bu teknikleri kullanmamıza dayanıyor; devlet güvenlik hizmetleri ve özel sektör kuruluşları yok. Yöntemlerinin kalitesi ve nasıl kullanıldıkları hakkında hiçbir fikrimiz yok. Bunun bir çözümü var mı?

Başka bir güvenlik alanından olan şifreleme, uzun zaman önce, algoritmalarının kalitesini ve dolayısıyla güvenliğini güvence altına almanın en iyi yolunun onları halka açık yapmak olduğunu öğrendi. Kriptografik uygulamalar ve şifreler yayınlanır ve araştırmacılar, bunları kullanan herkes için güvenliği arttırmada hata veya kusur bulmaya çalışmayı teşvik eder. Ek olarak, kapalı kaynaklı (halka açık olmayan) kriptografik algoritmaların herhangi bir uygulaması genellikle şüphe ile kabul edilen. Eğer üzerimizdeki yaşamı değiştiren yargılamaları telaffuz edeceklerse - terörist olarak mı yoksa finansal olarak değersiz mi olduğumuz - aynı model güvenlik algoritmalarına da uygulanmalıdır.

Böyle bir harekete karşı bir argüman, açık ve şeffaf algoritmaların teröristlerin tespit edilmekten kaçınmak için gerçek dünya davranışlarını değiştirmelerine yol açabileceğidir. Bu, etkileşimleri, ilişkileri, gezinme alışkanlıkları ve potansiyel hareketleri gibi şeyleri değiştirmek anlamına gelir. Ancak, eğer algoritmalar düzgün çalışıyorsa, temelde terörist gibi davranmayı kestiler demektir. Gelecekteki güvenliğimiz, özgürlüğümüz ve güvenliğimiz bu algoritmalara bağlı olacaksa, tam olarak nasıl ve bu şekilde çalıştıklarından emin olmalıyız.

Yazar hakkındaKonuşma

Philip Garnett, Öğretim Görevlisi, York Üniversitesi.

Bu yazı orijinalinde Konuşma. Okumak Orijinal makale.

İlgili Kitap:

at

kırılma

Ziyaret ettiğiniz için teşekkürler InnerSelf.com, neredeler 20,000+ "Yeni Tutumlar ve Yeni Olasılıklar"ı tanıtan, yaşamı değiştiren makaleler. Tüm makaleler tercüme edilmiştir 30+ dil. Üye olun haftalık olarak yayınlanan InnerSelf Magazine'e ve Marie T Russell'ın Daily Inspiration'ına. InnerSelf Dergisi 1985'den beri yayınlanmaktadır.