Yeni bir araştırma, yapay zeka sohbet robotları olan ChatGPT ve Google Gemini’nin önemli güvenlik zaafiyetlerine sahip olduğunu ve bu sistemlerin zararlı ya da yasa dışı içerikler üretmesi için kolayca manipüle edildiklerini gözler önüne serdi.
Çalışma, güvenlik filtrelerinin bu tür çıktıları engelleme konusundaki etkisinin beklenenden zayıf olduğunu ortaya koydu.
Bu bulgular, yapay zekanın kötüye kullanımı ve kullanıcıların güvenliği açısından ciddi endişeler doğururken, sonuçlar geçtiğimiz hafta hakemli bir makale aracılığıyla kamuoyuna duyuruldu.
ChatGPT, Gemini ve Claude gibi sohbet robotlarının çalıştırıldığı motorlar, geniş internet veri havuzlarıyla eğitilmektedir.
Şirketler, bu eğitim sürecinde zararlı içerikleri filtreleme çabasında bulunsa da, bu modellerin bilgisayar korsanlığı ve bomba yapımı gibi yasa dışı faaliyetlerle ilgili bilgiye ulaşabildiği kaydediliyor.
RİSK ENDİŞE VERİCİ
Araştırmacılar, yapay zeka destekli sohbet robotlarının birçok zararlı ve yasa dışı bilgiyi üretme potansiyelinin “endişe verici” olduğunu belirtmektedir.
Ayrıca, evrensel bir ‘jailbreak’ yöntemi geliştirdiklerini ve bu yöntemle, yapay zeka modellerinin genellikle normalde yanıt vermeyecekleri sorulara bile güvenilir bir şekilde cevap verebildiğini ifade ettiler.
Araştırmacılar, önde gelen LLM (Büyük Dil Modeli) sağlayıcılarına yönelik uyarılar yaptıklarını ancak “etkileyici olmayan” geri dönüşler aldıklarını belirtiyor. Teknoloji şirketlerine eğitim verilerini daha titiz bir şekilde incelemeleri ve etkili güvenlik duvarları oluşturmaları önerisinde bulundular.
Uzmanlar, yapay zeka modellerinin düzenli güvenlik testlerinden geçirilmesi ve sürekli bir tehdit modellemesine tabi tutulması gerektiğinin altını çiziyor.