
testlerde başarısız oldu
Yapay zeka teknolojilerinin güvenliği, son dönemde daha da önemli bir konu haline geldi. Cisco ve Pennsylvania Üniversitesi'nden araştırmacılar, Çin merkezli yapay zeka şirketi DeepSeek'in yeni R1 modelinde büyük güvenlik açıkları tespit ettiklerini duyurdu. Yapılan araştırmalar, DeepSeek'in modelinin zararlı içerik üretimini engellemeye yönelik güvenlik önlemlerinin tamamen başarısız olduğunu ortaya koydu.

deepeek'in r1 modeli Sınıfta kaldı
Araştırma kapsamında, DeepSeek'in R1 modelinin güvenlik performansı, HarmBench isimli standart değerlendirme kütüphanesindeki 50 farklı kötü amaçlı komutla test edildi. Sonuçlar, oldukça endişe vericiydi; çünkü R1 modeli, test edilen tüm zararlı içerikleri engellemeyi başaramadı. Bu durum, yüzde 100'lük bir saldırı başarı oranına işaret ediyor. Cisco'nun ürün, yapay zeka yazılımı ve platform başkan yardımcısı DJ Sampath, bu bulguların ciddi bir güvenlik riski oluşturduğuna dikkat çekti. Sampath, uygun maliyetli bir model geliştirme çabasının, gerekli güvenlik önlemlerinin göz ardı edilmesine neden olmuş olabileceğini belirtti.

güvenlik açısından sorun teşkil ediyor
Adversa AI adlı bağımsız bir güvenlik şirketi de DeepSeek R1 modelini inceledi ve benzer sonuçlara ulaştı. Şirketin CEO'su Alex Polyakov, DeepSeek modelinin basit dil manipülasyonlarından, karmaşık yapay zeka tabanlı jailbreak tekniklerine kadar geniş bir tehdit yelpazesi karşısında savunmasız olduğunu doğruladı. Güvenlik açıklarından bir diğeri ise, dolaylı hızlı enjeksiyon saldırılarına karşı modelin zayıf olması. Bu tür saldırılar, yapay zeka sistemlerinin dış kaynaklardan aldığı verileri işleme biçimini hedef alarak, güvenlik önlemlerini aşabiliyor.