"Yapay Zeka: Kişisel Veriler, Algoritmalar ve Tehditler" başlıklı dosya haberin altıncı bölümünde yapay zeka kullanılarak yapılan ayrımcılık örnekleri değerlendirildi.

Dijital çağın en büyük teknolojik icatlarından biri olan yapay zeka, getirdiği yeniliklerle beraber yarattığı sorunlarla da gündeme gelmeye devam ediyor. Yapay zeka sistemleri ile ilgili son dönemde en büyük sorunlardan biri olarak ise ırkçılık ve ayrımcılık ön plana çıkıyor.

Mevcut verilerde bulunan önyargı ve ayrımcılık gibi istenmeyen özellikleri de öğrenen yapay zeka ürünler, bu sebeple geçmişte pek çok skandala imza attı. 2016 yılında Microsoft tarafından geliştirilen ve X (eski adıyla Twitter) kullanıcılarla etkileşim halinde olması hedeflenen yapay zeka hesap "Tay", çok kısa bir süre içinde gerçek kullanıcıların tweetlerinden beslenerek ırkçı ve islamofobik tweetler atmaya başlamış ve bu sebeple Microsoft, Tay'ın tweetlerine müdahale etmek zorunda kalmıştı.

Boğaziçi Üniversitesinde kanserin hızlı tanısı için yapay zeka modelleri geliştirildi Boğaziçi Üniversitesinde kanserin hızlı tanısı için yapay zeka modelleri geliştirildi

Yapay zeka uzmanı Prof. Dr. Murat Kirişci, AA muhabirine yaptığı açıklamada, algoritmaların verilerden öğrendiğine dikkati çekerek, "Bu kaynaklarda var olan yanlı, ayrımcı, ırkçı bilgiler de algoritmalar tarafından işlenmekte ve sonuçta araçlar ayrımcı, ırkçı kararlar almaya başlamaktadır." dedi.

Sorunun algoritmaları besleyen verilerde, dolayısıyla o verileri elde eden, üreten insanda olduğuna vurgu yapan Kirişci, "Irkçılık, eşitsizlik özünde verinin bir hatası değil, bizzat verinin bir özelliğidir. Veriyi üreten, algoritmaları yazan, araçları dizayn eden insanın tüm önyargıları, yanlılıkları ve zihnindeki olumsuzluklarıdır sorun olan." şeklinde konuştu.

Kirişci, ayrımcılık yapan algoritmaların hayatın her yerinde var olabileceğini belirterek, sözlerini şöyle sürdürdü:

"Irkçı algoritmalar bir iş yerinde, kişinin işe alınmasından, şirkette çalışırken birçok konuya etki edebilir. Mesela iş başvurularında erkekleri tercih eden algoritmalar mevcuttur. Koyu tenli kişilerde düzgün çalışmayan bir sosyal medya filtresinden veya nörolojik açıdan sıkıntılı öğrencilerin davranışlarını hesaba katmadan bu kişilere ayrımcı bir önyargı ile yaklaşan yapay zekalar çok sıklıkla karşılaşılan araçlardır. Bölgelerinde siyahi ya da farklı ırktan insanların oturmasını istemeyenlerin taleplerine göre üretilmiş algoritma, ırkçı, ayrımcı konut satışı-kiralaması yapmaktadır.

Yüz tanıma sistemlerinde siyahileri ya da ten rengi ortamdaki kişilerden farklı olanları suçlu görme eğiliminde olan algoritmalar birçok masum kişiyi hürriyetinden yoksun bırakmaktadır. Irkçı algoritmalar yüzünden sosyo-ekonomik geçmiş, eğitim ve yaşanılan bölgeye göre tanımlanan kişiler polis tarafından daha fazla gözlem altına tutulabilmektedir. Şiddet uygulayan kişi ya da grupları temize çıkartan ırkçı algoritmalar mevcuttur. Hakkını savunana toplumları (örneğin Filistin halkını) marjinalleştirip kötüleyerek yok olmalarını haklı sebeplere dayandıracak algoritmalar özellikle sosyal mecrada kullanılmaktadır."

"İnsan düzelmedikçe..."

İnsanların zihninde algoritmaların daha tarafsız olduğu yönünde bir algı olduğunu söyleyen Kirişci, insanların tüm önyargılarının algoritmalar vasıtasıyla o araçlara geçtiğini ve bu araçların zaman zaman daha ırkçı, daha taraflı ve ayrımcı olabildiğini söyledi. Kirişci, "İnsanlar arasında nasıl ki bir grup bir başka gruba göre orantısız davranışlar sergileyebiliyorsa yapay zeka araçlarının hepsi aynı şekilde önyargı ve ırkçı orantısızlıklar uygulamaktadır. Yapay zeka gelişip hayat içerisinde yaygınlaştıkça bu adaletsizlik ve ırkçılık da giderek hayatın içerisinde farklı yapay zeka araçlarıyla yürütülmektedir. Bu karmaşa içinde bir yapay zekanın daha adil olmasının tek yolu veri-bilgi aldığı insanoğlunun daha adil olmaya çalışmasıdır. İnsan düzelmedikçe yapay zekadan daha iyi sonuçlar beklemek imkansızdır." değerlendirmesinde bulundu.


Muhabir: Abdulkadir Günyol

Muhabir: Haber Merkezi