Yapay zekâ, hayatın hemen her alanında varlığını iyiden iyiye hissettirmeye başladı. Teknolojiden sağlığa kadar pek çok alanda insan yaşamına sayısız fayda sağlayan yapay zekâ teknolojisinin çocukların müstehcen görüntüleri üzerinde eğitildiği de belirlendi. Uzmanlar, anne babaları çocukların yapay zekâ teknolojisine ilgi duyarken dikkatli olmaları gerektiği konusunda uyarıyor.
Stanford İnternet Gözlemevi, diğer araçların yanı sıra popüler görüntü oluşturucu Stable Diffusion'ı eğitmek için kullanılan ve 5 milyardan fazla görüntü-metin çifti içeren yapay zekâ veritabanı LAION'da 3 bin 200'den fazla müstehcen görüntü buldu.
ARTIK YAPAY ZEKÂNIN ÇOCUK İSTİSMARINA YÖNELİK GÖRÜNTÜLER OLUŞTURMASI DAHA KOLAY
Associated Press'in haberine göre Stanford çalışması, yapay zekâ araçlarının çocuk cinsel istismarı görüntülerini yalnızca yetişkin pornografisi ile çocuk fotoğraflarını birleştirerek oluşturduğuna dair geleneksel inanca ters düşüyor. Artık LAION veri tabanı kullanılarak eğitilen bazı yapay zekâ sistemlerinin bu tür yasa dışı materyaller üretmesinin daha da kolay olduğu biliniyor.
Stanford çalışmasına cevaben LAION veri setlerini geçici olarak kaldırdığını duyurdu. Ayrıca, Stable Diffusion'ın üreticisi Stability AI, yapay zekâ aracına daha sıkı filtreler uygulayarak kötüye kullanım riskini azaltmak için proaktif adımlar attığını söyledi. Bununla birlikte, Stanford raporuna göre Stable Diffusion'ın 1.5 adlı eski bir sürümü hâlâ açık görüntüler üretmek için en popüler model olduğu belirlendi.