DOLAR
33,98 0%
EURO
37,82 0%
ALTIN
2.820,09 0%
BITCOIN
1.966.958,85 0%

Anne babalar dikkat! Yapay zekâ görüntü oluşturucularının çocukların müstehcen görüntüleri üzerinde eğitildiğini ortaya çıktı!

Yapay zekâ görüntü üretimi dünyasından bazı rahatsız edici haberleri ortaya çıktı. Stanford merkezli bir izleme grubu, yapay zekâ sistemlerini eğitmek için kullanılan popüler bir açık kaynak görüntü veri setinde binlerce çocuk cinsel istismarı görüntüsü keşfetti.

Yayın Tarihi: 21.12.2023 16:35
Güncelleme Tarihi: 21.12.2023 16:35

Anne babalar dikkat! Yapay zekâ görüntü oluşturucularının çocukların müstehcen görüntüleri üzerinde eğitildiğini ortaya çıktı!

Yapay zekâ, hayatın hemen her alanında varlığını iyiden iyiye hissettirmeye başladı. Teknolojiden sağlığa kadar pek çok alanda insan yaşamına sayısız fayda sağlayan yapay zekâ teknolojisinin çocukların müstehcen görüntüleri üzerinde eğitildiği de belirlendi. Uzmanlar, anne babaları çocukların yapay zekâ teknolojisine ilgi duyarken dikkatli olmaları gerektiği konusunda uyarıyor.

Stanford İnternet Gözlemevi, diğer araçların yanı sıra popüler görüntü oluşturucu Stable Diffusion'ı eğitmek için kullanılan ve 5 milyardan fazla görüntü-metin çifti içeren yapay zekâ veritabanı LAION'da 3 bin 200'den fazla müstehcen görüntü buldu.

yapay zeka

ARTIK YAPAY ZEKÂNIN ÇOCUK İSTİSMARINA YÖNELİK GÖRÜNTÜLER OLUŞTURMASI DAHA KOLAY

Associated Press'in haberine göre Stanford çalışması, yapay zekâ araçlarının çocuk cinsel istismarı görüntülerini yalnızca yetişkin pornografisi ile çocuk fotoğraflarını birleştirerek oluşturduğuna dair geleneksel inanca ters düşüyor. Artık LAION veri tabanı kullanılarak eğitilen bazı yapay zekâ sistemlerinin bu tür yasa dışı materyaller üretmesinin daha da kolay olduğu biliniyor.

Stanford çalışmasına cevaben LAION veri setlerini geçici olarak kaldırdığını duyurdu. Ayrıca, Stable Diffusion'ın üreticisi Stability AI, yapay zekâ aracına daha sıkı filtreler uygulayarak kötüye kullanım riskini azaltmak için proaktif adımlar attığını söyledi. Bununla birlikte, Stanford raporuna göre Stable Diffusion'ın 1.5 adlı eski bir sürümü hâlâ açık görüntüler üretmek için en popüler model olduğu belirlendi.