Daha iyi yapay zeka ile daha iyi bir toplum inşa etmek

[ad_1]

Deloitte AI Enstitüsü’nün küresel başkanı ve Deloitte’ta teknoloji ve AI etiği lideri Beena Ammanath, “İnsanlar olarak oldukça önyargılıyız” diyor. “Ve bu önyargılar sistemlere işledikçe, toplum kesimlerinin -yetersiz temsil edilen azınlıklar, belirli araçlara erişimi olmayan insanlar- geride kalma olasılığı çok yüksek ve bu, dünyada daha fazla eşitsizliğe yol açabilir.”

Sistemler önyargılı verilerle eğitilirse veya araştırmacılar kendi bakış açılarının araştırma alanlarını nasıl etkilediğini hesaba katmazlarsa, eşit sonuçlar yaratmak veya geçmişteki eşitsizlikleri azaltmak için iyi niyetlerle başlayan projeler yine de taraflı olabilir.

Ammanath, şimdiye kadar, AI önyargılarına göre ayarlama yapmak, genellikle önyargılı algoritmaların veya yeterince temsil edilmeyen demografik bilgilerin ortaya çıkmasıyla reaktif olmuştur, diyor Ammanath. Ancak şirketlerin artık nasıl proaktif olunacağını, bu sorunları erkenden hafifletmeyi ve yapay zeka çabalarındaki yanlış adımlardan sorumlu olmayı öğrenmesi gerekiyor.

AI’da algoritmik önyargı

AI’da önyargı, algoritmik önyargı şeklinde görünür. Hewlett Packard Labs’ın baş mimarı ve Hewlett Packard Enterprise’ın (HPE) başkan yardımcısı olan Kirk Bresniker, “Algoritmik önyargı, bir yapay zeka modeli oluşturmanın bir dizi zorluğudur,” diye açıklıyor. “Çeşitli girdileri işleyemeyen bir algoritmamız olduğu veya modelimizin eğitimine dahil etmek için yeterince geniş veri kümeleri toplamadığımız için bir zorlukla karşılaşabiliriz. Her iki durumda da elimizde yeterli veri yok.”

Algoritmik önyargı, hatalı işleme, verilerin değiştirilmesi veya yanlış bir sinyal enjekte eden birinden de gelebilir. Kasıtlı olsun ya da olmasın, önyargı, belki bir gruba ayrıcalık tanıyarak veya bir diğerini tamamen dışlayarak, haksız sonuçlara yol açar.

Örnek olarak Ammanath, parmak arası terlik, sandalet, resmi ayakkabı ve spor ayakkabı gibi farklı ayakkabı türlerini tanımak için tasarlanmış bir algoritma açıklar. Ancak piyasaya sürüldüğünde, algoritma topuklu kadın ayakkabılarını tanıyamadı. Geliştirme ekibi, kendilerini kadın ayakkabısı topukları üzerinde çalıştırmayı hiç düşünmemiş, tamamı erkek olan yeni üniversite mezunlarından oluşan bir gruptu.

Ammanath, “Bu önemsiz bir örnek, ancak veri kümesinin sınırlı olduğunun farkındasınız” dedi. “Şimdi bir hastalığı veya hastalığı teşhis etmek için geçmiş verileri kullanan benzer bir algoritma düşünün. Ya belirli vücut tipleri, belirli cinsiyetler veya belirli ırklar üzerinde eğitilmediyse? Bu etkiler çok büyük.

Eleştirel olarak, masada bu çeşitliliğe sahip değilseniz, belirli senaryoları kaçıracaksınız diyor.

[ad_2]
Kaynak : https://www.technologyreview.com/2022/06/07/1053031/building-a-better-society-with-better-ai/

Yorum yapın

SMM Panel PDF Kitap indir