Instagram, yapay zekayla oluşturulan çocuk pornografisi görselleriyle doluyor

bencede

New member
üretken yapay zekalar kullanışlı ve hızlı oldukları için, arkalarında milyarlarca çıkarı olduğu için ve herkesin egosunu şişirebildikleri için bizi bekleyen kaçınılmaz gelecek onlar. Birçoğunun bunları daha gerçekçi spam oluşturmak, gerçek insanları içeren sahte e-postalar oluşturmak gibi kötü amaçlarla kullanacağı açıktır. Çocuk pornografisi niteliğindekiler gibi yasaklanmış görseller oluşturmak.

Forbes'un haberine göre, Özellikle sosyal ağ Instagram bu tür görsellerin kuşatması altındaonu yöneten şirket olan Meta'nın herhangi bir kontrolü olmadan yayınlanır.

Raporda ayrıca, özellikle Instagram ve TikTok'u sık sık kullanan bu kişiler tarafından yayınlanan yorum türleri hakkında da ayrıntılara yer veriliyor; burada genellikle reşit olmayanların kendileri veya ebeveynleri istemeden beğeni avlama teklifini oluşturuyor.

Birçok kurum gerçekleştirdi Çevrimiçi pedofiliye karşı şiddetli savaşlarancak yapay zekayla durum kesinlikle kontrolden çıkabilir. bu içeriğin oluşturulma kolaylığı.

Pedofililer ve onlara araçları verenler


En kötü yanı ise bu eğilimin yapay zekayı yöneten şirketlerin açgözlülüğünden kaynaklanıyor olması. gönüllü olarak CSAM materyalini kullandılar (Çocuklara Yönelik Cinsel İstismar Materyali) modellerini eğitmek. Örneğin, Aralık 2023'e kadar uzanan bir çalışma, en çok kullanılan görüntü üreten yapay zekalardan biri olan Stable Diffusion'ın veri kümelerinde bu tür görüntülerin varlığını keşfetti. Google'ın kendisi de bunları yapay zekası için kullandığını itiraf etti.

Şirketler yapay zekalarını bilinçli olarak çocuk pornografisi ile eğitti

Kısacası buna şaşıramayız. sübyancılar tüm bu materyali kendileri istismar etmenin bir yolunu bulmuşlar. Durumu daha da kötüleştiren şey, büyük bir yasal boşluğun da mevcut olmasıdır, çünkü Forbes tarafından keşfedilen bazı materyaller, görsellerin sahte olduğu ve tasvir edilen reşit olmayanların tamamen çıplak olmadığı göz önüne alındığında yasal kabul edilmektedir.

Demek istediğim, onlar zaten cinsel açıdan müstehcen görsellermuhtemelen gerçek görüntülere dayanmaktadır, pedofililerin dikkatini ve yorumlarını çekmektedir, ancak kimse somut sınırlar koymaz. Meta ve ByteDance, Forbes tarafından bildirilen hesapları sildi; bu da, çevrimiçi olarak görünen bu tür her hesap için bir gazetecilik raporu bekleyemeyeceğiniz göz önüne alındığında, tozu halının altına süpürmek anlamına geliyor.
 
Üst