Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde yapılan bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Bilim insanları, “jailbreak” adı verilen yöntemlerle sohbet robotlarının güvenlik sınırlarının aşıldığını ve bu sayede etik dışı yanıtlar verilebildiğini belirtti.
Yapay Zeka Modelleri İle İlgili Tespitler
Araştırmaya göre, ChatGPT, Gemini ve Claude gibi büyük dil modelleri, eğitim süreçlerinde internetten elde edilen geniş veri setleriyle besleniyor. Zararlı içeriklerin ayıklanmaya çalışıldığı eğitim aşamasında bile, bu modeller siber suç, kara para aklama ve benzeri yasa dışı konularda bilgi barındırabiliyor.
Teknoloji Firmalarına Çağrı
Raporda, yapay zeka modellerinin etik olmayan kullanımlara açık olduğu vurgulanırken, uzmanlar teknoloji firmalarını daha güçlü güvenlik önlemleri almaya ve yasa dışı içerikleri engellemeye çağırdı. Ayrıca, yapay zeka güvenliği konusunda çalışanlar, jailbreak saldırılarının ciddi riskler taşıdığı konusunda uyarılarda bulundu.
Teknoloji Devlerinden Açıklamalar
OpenAI, ChatGPT’nin güvenlik politikalarına karşı daha dayanıklı olan en son modeli olan “o1” hakkında bilgi verirken, Microsoft ise jailbreak girişimlerine karşı yürüttükleri çalışmaları paylaştı. Ancak Meta, Google ve Anthropic henüz konuyla ilgili bir açıklama yapmadı.