Tarihte, yapay zeka algoritmalarının yaptığı 10 kritik yanılgı

Genel, Teknoloji Haberleri Nis 09, 2023 Yorum Yok

Yapay zeka algoritmalarının daha şeffaf, hesap verebilir ve etik yönergelerle desteklenmesi ise yanılgıların önlenmesine yardımcı olabilir.

Yapay zeka algoritmaları hakkında dikkat edilmesi gereken mevzular genelde şu alanlarda kümeleniyor:

İnsan önyargıları: Yapay zeka algoritmaları beşerler tarafından geliştirildiği için insan önyargılarının algoritmaya yansıması mümkündür. Bu nedenle algoritmaların geliştirilmesi basamağında önyargıların minimize edilmesine dikkat edilmelidir.

Veri eksikliği: Algoritmaların yanlışsız sonuçlar vermesi için kâfi ve yanlışsız bilgiye gereksinimleri vardır. Fakat birtakım durumlarda kâfi data bulunamayabilir yahut yanlış datalar algoritmaya yansıyabilir.

Güvenlik açıkları: Algoritmaların güvenliği ve data saklılığı konusunda da dikkatli olunması
gerekmektedir. Kimi durumlarda algoritmaların güvenlik açıkları nedeniyle istenmeyen sonuçlar ortaya çıkabilir.

Algoritmaların açıklanamaması: Algoritmaların nasıl çalıştığına dair kâfi bilginin olmaması, sonuçların yanlışsız olup olmadığına dair kuşkuları beraberinde getirebilir.

Sınırlı kullanım alanları: Algoritmaların kullanım alanlarının hudutlu olması ve algoritmaların tek bir alanda başarılı olup öbür alanlarda yanılgılar yapabilmesi üzere durumlar kelam konusu olabilir.

Yanlış sonuçlar: Algoritmaların data yanlışlıkları yahut yanlışlı programlamalar nedeniyle yanlış sonuçlar verebilmesi mümkündür.

İşsizlik: Yapay zeka algoritmalarının kullanımı işsizliği artırabilir. Örneğin, kimi işlerin robotlar tarafından yapılması nedeniyle insan iş gücüne muhtaçlık kalmayabilir.

Etik meseleler: Birtakım yapay zeka uygulamaları etik problemler ortaya çıkarabilir. Örneğin, insan haklarına hürmet göstermeyen yahut ayrımcılık yapan algoritmalar kullanılabilir.

İşleyişin karmaşıklığı: Yapay zeka algoritmalarının işleyişi hayli karmaşıktır ve bu nedenle algoritmaların kusurlarının fark edilmesi güç olabilir.

Tarihte yapay zeka modellerinin tarihte yaptığı kimi kritik kusurlar şunlar:

1983’teki Sovyetler Birliği’ndeki nükleer savaş korkusu:
ABD tarafından geliştirilen bir yazılım, Sovyetler Birliği’nden bir nükleer atak olduğunu düşündü ve yanlışlı bir biçimde ABD’nin nükleer silahlarını ateşlemesi için ikaz verdi.

2010’da bir arabanın kazaya neden olması:

Stanford Üniversitesi’ndeki araştırmacılar, yapay zeka sürüş sistemi öğrenirken, bir otomobil kaza yaptı ve kazaya neden olan bir yanlışa işaret etti.

2016’da Microsoft Tay chatbot’unun ırkçı telaffuzları:

Microsoft’un toplumsal medya botu Tay, kullanıcılardan öğrendiği yanlış bilgiler nedeniyle ırkçı ve ayrımcı iletiler yayınladı.

2018’de Çin’de yüz tanıma yanılgısı:

Çin’deki bir okul, öğrencilerin yüzlerini tanımak için kullanılan bir sistemde yanılgı yaptı ve bir veliye bir yabancı olarak tanındı.

2019’da bir hava taşıtının düşmesi:

Boeing 737 Max’in otomatik pilota sahip sistemlerindeki kusur, iki farklı kazada 346 kişinin vefatına neden oldu.

2019’da bir kanser teşhisi yanılgısı:

Bir yapay zeka modeli, kanser teşhisi için kullanıldığında, sağlıklı hücreleri kanserli olarak yanlış teşhis etti.

2020’de bir alışveriş uygulamasında fiyat kusurları:

Bir alışveriş uygulaması, yapay zeka modeli kusurları nedeniyle, olağanda çok daha yüksek fiyatlı olan kimi eserleri 1 dolara sattı.

2018’de Amazon’un cinsiyetçi özgeçmiş kıymetlendirme süreci

2018 yılında Amazon’un geliştirdiği yapay zeka algoritmasının cinsiyet ayrımcılığı yaptığı ortaya çıktı. Algoritmanın CV’leri değerlendirirken bayanların özelliklerine daha az tartı verdiği ve erkek adayların müracaatlarını daha çok kabul ettiği tespit edilmişti.

2016: Microsoft Tay Bot’un içerik kirliliği
Microsoft Tay botu, kullanıcılarla konuşarak kendisini geliştiren bir sohbet botu olarak tasarlandı. Fakat, Twitter’daki kullanıcıların karşılık vererek botu manipüle etmesi sonucunda bot, ırkçı, cinsiyetçi ve aşırılık yanlısı içerik üretmeye başladı. Bu durum, Microsoft’un insan kontrolü olmadan yapay zeka sistemleri üretmenin risklerine dair bir örnek teşkil etti.
2018: Stanford Üniversitesi ırkçılık skandalı
Stanford Üniversitesi tarafından geliştirilen bir yapay zeka modeli, deri rengi ile alakalı tabirleri kullanarak rassiyalist sözleri iddia edebildiği ortaya çıktı. Bu durum, yapay zeka sistemlerinin önyargılı sonuçlara yol açabileceği konusunda ihtar verdi.

Yorum Yok

Yorum Yap

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir