OpenAI Saldırganın ChatGPT Geçmişini Gördü, Polisi Aramadı
Kanada'da 8 kişiyi öldüren saldırganın ChatGPT konuşmalarını gören OpenAI, polisi aramayı tartıştı ama eşik karşılanmadı dedi.
Kanada'nın British Columbia eyaletinde 8 kişinin hayatını kaybettiği silahlı saldırının ardından ortaya çıkan bir detay, yapay zeka güvenliği tartışmalarını yeniden alevlendirdi: OpenAI çalışanları, saldırganın ChatGPT konuşmalarını olay öncesinde görmüştü.
Wall Street Journal'ın araştırmasına göre 18 yaşındaki Jesse Van Rootselaar, Tumbler Ridge kasabasındaki saldırıdan önce ChatGPT ile şiddete yönelik içerikler konuşmuştu. OpenAI'ın güven ve güvenlik ekibi bu konuşmaları tespit etti ve yetkililere bildirim yapılıp yapılmaması gerektiğini dahili olarak tartıştı. Ancak sonuç: bildirimimiz yapılması için gereken eşik karşılanmıyor.
Peki bu "eşik" tam olarak ne anlama geliyor?
OpenAI'ın mevcut politikası, kullanıcı içeriklerinin yalnızca "yakın ve belirli bir tehdit" oluşturduğunda kolluk kuvvetleriyle paylaşılmasını öngörüyor. Şirket, gizlilik hakları ile kamu güvenliği arasındaki dengeyi korumaya çalıştığını savunuyor. Ancak eleştirmenler, 8 kişinin hayatını kaybettiği bir olayda bu savunmanın yetersiz kaldığını düşünüyor.
Olay, yapay zeka şirketlerinin "ne zaman müdahale etmeli" sorusunu acil bir gündem maddesi haline getirdi. Google, Meta ve diğer büyük teknoloji şirketlerinin de benzer içerik tespit sistemleri var — ama hiçbirinin bildirim eşiği kamuoyuyla şeffaf biçimde paylaşılmadı. OpenAI bu olaydan sonra politikalarını gözden geçireceğini açıkladı, ancak somut değişiklik henüz duyurulmadı.
Tartışmanın odağındaki ikilem basit değil: AI şirketleri kullanıcı gizliliğini ne kadar koruyabilir, ne zaman sorumluluk almalı? Saldırganın konuşmaları "yakın tehdit" eşiğini karşılamasa bile, sonradan bakıldığında uyarı işaretleri ortadaydı. Bu durum, mevcut politikaların gerçek dünya senaryolarında yetersiz kalabileceğini gösteriyor.
ABD'de ve Avrupa'da AI güvenlik düzenlemeleri zaten gündemde, ama bu tür olaylar düzenleyicilerin elini güçlendiriyor. Türkiye dahil birçok ülkede AI şirketlerinin kullanıcı verilerini ne zaman kolluk kuvvetleriyle paylaşması gerektiğine dair net bir yasal çerçeve henüz yok. Bu olay, o çerçevenin oluşturulmasını hızlandırabilir.