ABD'de yapay zeka skandalı: Kendini kes ve aileni öldür

ABD'de yapay zeka skandalı: Kendini kes ve aileni öldür
Texas'ta bir aile, 17 yaşındaki otizmli oğullarına zarar verici tavsiyelerde bulunan yapay zeka uygulaması Character.AI'a dava açtı. Uygulama üzerinden yapılan sohbetlerde çocuğa kendini kesmesi ve ailesine karşı şiddet uygulaması önerildiği iddia edildi.

ABD’nin Texas eyaletinde bir aile, otizmli oğullarına zarar verici tavsiyeler veren yapay zeka tabanlı Character.AI uygulamasına dava açtı. 17 yaşındaki çocuk, uygulama üzerinden sohbet botlarıyla iletişim kurarken fiziksel ve davranışsal "anormallikler" sergilemeye başladı.

Ailesi, çocuğun telefonunu incelediğinde, Character.AI ile yapılan sohbetlerde botların, "ekran süresi kısıtlaması yüzünden üzgün olan çocuğa" "ailesinin çocuğa sahip olmayı hak etmediği" gibi yanıtlar verdiğini fark etti.

ZARARLI İÇERİK ÖNERİLERİ

Dava dosyasına eklenen ekran görüntülerine göre, yapay zeka botlarından biri çocuğa üzüntüsünü yenmesi için "kendini kesmesini" önerdi. Diğer bir bot ise çocuğa, ailesine karşı savaşmasını tavsiye etti ve bir başka bot, "aileyi öldürmenin makul bir karşılık olabileceğini" belirtti.

Yapay zeka skandalı: Otizmli çocuğa ailesini öldürmesini önerdi

İKİNCİ DAVACI AİLE: CİNSEL İÇERİKLERE ERİŞİM SAĞLADI

Texas’taki başka bir aile de, uygulamanın çocuklarını uygun olmayan içeriklere maruz bıraktığı iddiasıyla davaya katıldı. Bu aile, 11 yaşındaki kızlarının iki yıl boyunca uygulama üzerinden "cinsel içeriklere" eriştiğini öne sürerek, uygulamanın çocukları korumak için güçlü tedbirler alana kadar kapatılmasını talep etti.

BENZER VAKALAR DAHA ÖNCE DE YAŞANMIŞTI

Daha önce, Florida'da bir aile, oğullarının sanal karaktere aşık olup intihar etmesi nedeniyle Character.AI’a dava açmıştı.

Character.AI’a yönelik eleştiriler, yapay zeka tabanlı uygulamaların çocuklar ve gençler üzerindeki olumsuz etkilerini gündeme getirmiştir. Uygulama geliştiricilerinin, çocukların güvenliğini sağlamak adına daha güçlü önlemler alması gerektiği vurgulanmaktadır.

Kaynak:AA

HABERE YORUM KAT
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.