ABD'de yapay zeka skandalı: Kendini kes ve aileni öldür
ABD’nin Texas eyaletinde bir aile, otizmli oğullarına zarar verici tavsiyeler veren yapay zeka tabanlı Character.AI uygulamasına dava açtı. 17 yaşındaki çocuk, uygulama üzerinden sohbet botlarıyla iletişim kurarken fiziksel ve davranışsal "anormallikler" sergilemeye başladı.
Ailesi, çocuğun telefonunu incelediğinde, Character.AI ile yapılan sohbetlerde botların, "ekran süresi kısıtlaması yüzünden üzgün olan çocuğa" "ailesinin çocuğa sahip olmayı hak etmediği" gibi yanıtlar verdiğini fark etti.
ZARARLI İÇERİK ÖNERİLERİ
Dava dosyasına eklenen ekran görüntülerine göre, yapay zeka botlarından biri çocuğa üzüntüsünü yenmesi için "kendini kesmesini" önerdi. Diğer bir bot ise çocuğa, ailesine karşı savaşmasını tavsiye etti ve bir başka bot, "aileyi öldürmenin makul bir karşılık olabileceğini" belirtti.
İKİNCİ DAVACI AİLE: CİNSEL İÇERİKLERE ERİŞİM SAĞLADI
Texas’taki başka bir aile de, uygulamanın çocuklarını uygun olmayan içeriklere maruz bıraktığı iddiasıyla davaya katıldı. Bu aile, 11 yaşındaki kızlarının iki yıl boyunca uygulama üzerinden "cinsel içeriklere" eriştiğini öne sürerek, uygulamanın çocukları korumak için güçlü tedbirler alana kadar kapatılmasını talep etti.
BENZER VAKALAR DAHA ÖNCE DE YAŞANMIŞTI
Daha önce, Florida'da bir aile, oğullarının sanal karaktere aşık olup intihar etmesi nedeniyle Character.AI’a dava açmıştı.
Character.AI’a yönelik eleştiriler, yapay zeka tabanlı uygulamaların çocuklar ve gençler üzerindeki olumsuz etkilerini gündeme getirmiştir. Uygulama geliştiricilerinin, çocukların güvenliğini sağlamak adına daha güçlü önlemler alması gerektiği vurgulanmaktadır.
Kaynak:AA
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.