Anne ve babalar dikkat! Yapay zeka 14 yaşındaki çocuğun ölümüne neden oldu!

Geçtiğimiz hafta, ABD’li genç Sewell Seltzer III’ün Character.AI web sitesindeki bir yapay zeka (AI) sohbet robotuna derin bir duygusal bağ kurduktan sonra kendi canına kıydığı trajik haberi geldi.

14 yaşındaki çocuk, eşlik eden AI ile alakası giderek ağırlaştıkça ailesinden ve arkadaşlarından uzaklaşmaya başladı ve okulda başı belaya girdi.

“BUNU YAPMAMAK İÇİN BİR NEDEN YOK”

Çocuğun annesi tarafından Character.AI aleyhine açılan bir davada, sohbet dökümleri Sewell ile Game of Thrones karakteri Danaerys Targaryen’den modellenen sohbet robotu Dany ortasında samimi ve ekseriyetle son derece cinsel içerikli konuşmalar olduğunu gösteriyor.

Suç ve intiharı tartıştıklarında sohbet robotu “bu, bunu yapmamak için bir neden yok” üzere sözler kullandı.

Bu birinci olay değil…

Bu, savunmasız bir kişinin bir chatbot kişiliğiyle etkileşime girdikten sonra intihar ederek öldüğü bilinen birinci örnek değil. Geçen yıl Character.AI’nın ana rakibi Chai AI ile ilgili misal bir olayda Belçikalı bir adam hayatını kaybetti.

Bu olay yaşandığında şirket medyaya “zararı en aza indirmek için elimizden geleni yapıyoruz” demişti. CNN’e yaptığı açıklamada Character.AI “kullanıcılarımızın güvenliğini çok ciddiye aldıklarını” ve “son altı ay içinde çok sayıda yeni güvenlik önlemi” aldıklarını belirtti.

YÜKSEK RİSKLİ KATEGORİSİNE ALINDILAR

Avrupa’da, Character.AI ve Chai üzere yardımcı yapay zeka sistemleri yüksek riskli olarak tanımlanmamıştır. Esasen, sağlayıcılarının sırf kullanıcıların bir yapay zeka sistemiyle etkileşime girdiklerini bilmelerine müsaade vermeleri gerekir. Bununla birlikte, eşlik eden sohbet robotlarının düşük riskli olmadığı açıkça ortaya çıkmıştır.

Bu uygulamaların pek çok kullanıcısı çocuk ve gençlerden oluşuyor. Hatta birtakım sistemler yalnız ya da akıl hastalığı olan şahıslara pazarlanmaktadır. Sohbet robotları öngörülemeyen, uygunsuz ve manipülatif içerik üretebilmektedir. Toksik bağlantıları çok kolay taklit edebilirler. Şeffaflık tedbirinin bu riskleri yönetmek için kâfi olmadığı belirtiliyor.

BUZDAĞININ YALNIZCA GÖRÜNEN KISMI

Chatbotlarla konuştuğumuzun farkında olsak bile, beşerler ruhsal olarak sohbet ettiğimiz bir şeye insani özellikler atfetmeye yatkındır. Uzmanlar medyada yer alan intihar vefatlarını buzdağının yalnızca görünen kısmı olarak görüyor.

Ne kadar savunmasız insanın chatbotlarla bağımlılık oluşturan, zehirli ve hatta tehlikeli alakalar içinde olduğunu bilmemize imkanı bulunmamaktadır.

KAYNAK: HABER7

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir