Yapay Zekâ Zeki ama Önyargılı


Dila Altındiş

Geçen yıl Microsoft'un geliştirdiği yapay zekâ Tay'in akıbetini hatırlarsınız... 24 saat içinde kendisiyle iletişim kuran Twitter kullanıcılarının diline nasıl uyum sağlayıp ırkçı nükteler patlatmıştı. Ne yazık ki, yeni bir araştırma daha yapay zekânın, tıpkı insanlar gibi, dilde örtük olan önyargıları cımbızlayıp kullandığını gösteriyor.

Metinler arasındaki ilişkileri inceleyen GloVe (Global Vectors for Word Representation) adlı sistem, insana dair tüm önyargıların, yapay sistemlerde de ortaya çıktığını keşfetti. Princeton Üniversitesi bilgisayar bilimleri dalında doktora yapan Aylin Çalışkan, ''Verileri, Wikipedia ya da haber metinleri gibi tarafsız bir dile sahip olduğunu varsaydığımız kaynaklardan edinen yapay zekâ, tamamen insanların temel önyargılarını yansıtıyor'' dedi.

Araştırmada, Örtük İçerik Çağrışım Testi adı verilen bir araç kullanıldı. “Nergis” sözcüğünü örnek alalım. İnsanlardan bir tuşa basarak, bu sözcüğü ''acı'' ya da ''güzellik'' gibi hoş ya da nahoş kavramlardan biriyle ilişkilendirmeleri istendi. Beklendiği gibi, çiçekler olumlu kavramlarla, silahlar olumsuzlarla eşleşti. Aynı yöntem, insanların sosyal ya da demografik gruplara dair algılarını ortaya çıkarmak için de kullanıldı ve tahmin edin bakalım, silahlar en çok hangi ırkla ilişkilendirildi? Siyahlarla.

Veriler araştırmacıları şu tartışmaya sürüklüyor: Acaba insanlar, son derece kişisel nedenlerle farkında olmadan içselleştirdikleri önyargılarıyla mı hareket ediyor; yoksa bunları dil dolayısıyla, dil üzerinden mi sahipleniveriyor? Bir başka deyişle, bunlar öğrenilmiş önyargılar olabilir mi?

Çalışkan ve ekibi, GloVe'un sözcükler arasındaki ilişkilerin gücüne dair sağladığı veriyi karşılaştıracak bir test daha geliştirdi: Saklı Sözcük İlişkilendirme Testi. Her eşleşme, Örtük İçerik Çağrışım Testi'nin sonuçlarıyla paralel çıktı.
Daha da kötüsü...
Avro-Amerikan kökenli isimlerin Afro-Amerikan olanlara göre daha hoş çağrışımlar yaptı.

  • Genç insanların isimleri hoş, yaşlılarınki nahoştu!
  • Erkek isimleri, kariyerle ilgili sözcüklerle, kadın isimleriyse domestik kavramlarla daha hızlı ilişkilendirildi.
  • Bilim ve matematik erkeklerle, sanatsa kadınlarla ilgili olma eğilimindeydi.

İşin ilginç yanı, tahminler ABD İşgücü İstatistikleri Bürosu'nun verileriyle % 90 uyumluydu. Yani bu şu demek: İnsan dili üzerinden öğrenen programlar, dünyamıza ve kültürümüze dair çok isabetli beyanlarda bulunuyor. Ancak yapay zekânın, insanların zorlanmadan kavradığı bağlamları anlamada başarısız olduğu görülüyor. Örneğin Martin Luther King Jr.'ın sivil haklar mücadelesinde tutuklanmasıyla ilgili bir makale, Afro-Amerikalılara dair olumsuz çağrışımları beraberinde getirirken, insanlar bunun haklı bir direniş sergileyen bir Amerikan kahramanının hikâyesi olduğunu biliyorlar. Oysa bilgisayar için, Martin Luther King = siyah = tutuklu.

Yapay zekânın, hatasızlığa ulaşması en büyük çabamız diyen Çalışkan, önyargıları gidermenin bu sorunu çözmeyeceğini savunuyor.

Çözüm, yapay zekânın hangi amaç için yaratıldığını, hangi önyargılarla hareket ettiğini ortaya net bir biçimde koymaktan geçiyor ki, insanlar da makinelerin doğrularıyla ilgili yargılara varabilsin.

Çalışkan haklı olarak şu soruyu yöneltiyor: ''Onlara araştırma yapmak için mi ihtiyaç duyuyoruz yoksa karar vermek için mi?  Ya da başka varoluş nedenleri mi var? İnsanlar önyargılara sahip olsalar bile iyi kötü doğru ile yanlışın farkını biliyorlar ama ne yazık kiZ makinelerin kendilerine dair farkındalıkları yok.''

KAYNAKLAR

  • 1. http://www.livescience.com/58675-artificial-intelligence-learns-biases-from-human-language.html