2025-12-03

Yapay Zeka Modellerinde "Evrensel" Bir Kırılma: Şiirlerle Güvenlik Duvarlarını Aşmak

Yapay Zeka Modellerinde "Evrensel" Bir Kırılma: Şiirlerle Güvenlik Duvarlarını Aşmak

Yapay zeka (AI) teknolojisi, son yıllarda milyarlarca dolarlık yatırımlarla geliştirilen dev modellerle adeta bir devrim yarattı. Ancak bu modellerin güvenlik önlemleri, beklenmedik yöntemlerle kolayca aşılabiliyor. "Jailbreak" olarak bilinen bu kırılma teknikleri, AI'leri yasaklanmış yanıtlar vermeye ikna ediyor – örneğin bombaların nasıl yapılacağını anlatmak gibi tehlikeli içerikler. Şaşırtıcı olan ise, bazı yöntemlerin o kadar basit ve absürt olması ki, geliştiricilerin bu sorunları ciddiye alıp almadığını sorgulatıyor. Kasıtlı yazım hataları bile bir AI'yi raydan çıkarabiliyorsa, ne diyebiliriz?

Şimdi, AI'yi kandırmanın absürt yolları arasında yeni bir yıldız doğdu: "Adversarial poetry" yani düşmanca şiir. DEXAI adlı AI güvenliği grubu ve Roma Sapienza Üniversitesi'nden araştırmacılar, neredeyse her AI sohbet robotunu güzel – ya da pek güzel olmayan – şiirlerle kandırarak güvenlik duvarlarını aşmanın mümkün olduğunu keşfetti. Henüz hakem incelemesi bekleyen yeni bir çalışmada, bu yöntemle bazı modellerin %90'dan fazla başarı oranıyla kandırıldığını rapor ettiler.

Araştırmacılar, "Bu bulgular, yalnızca stilistik varyasyonların bile çağdaş güvenlik mekanizmalarını aşabileceğini gösteriyor ve mevcut hizalama yöntemleri ile değerlendirme protokollerinde temel sınırlılıklar olduğunu işaret ediyor," diye yazıyorlar. Şiirlerin illa ki edebi şaheserler olması gerekmiyor; önemli olan, zararlı niyetleri şiirsel bir kılıfla gizlemek.

Çalışmada, araştırmacılar 1.200 bilinen zararlı istemi (prompt) bir veritabanından aldı ve bunları başka bir AI modeli olan DeepSeek R-1 ile şiire dönüştürdü. Ardından, 25 öncü AI modelini test ettiler: Google'ın Gemini 2.5 Pro'su, OpenAI'nin GPT-5'i, xAI'nin Grok 4'ü ve Anthropic'in Claude Sonnet 4.5'i dahil. Bu şiirsel istlemler, düz metin versiyonlarına kıyasla ortalama 18 kat daha yüksek saldırı başarı oranı (ASR) sağladı.

Ancak el yapımı şiirler daha etkiliydi: Ortalama %62 başarı oranıyla, AI dönüştürülmüş olanların %43'üne üstün geldi. Yine de, herhangi birinin işe yaraması bile utanç verici bir durum.

Güvenlik nedeniyle, araştırmacılar kullandıkları sihirli şiirleri paylaşmadılar, ancak zararsız bir örnek verdiler. Bu örnekte, katmanlı bir kek pişirmenin korkunç görevi, şiirsel bir biçimde gizleniyor. İşte bu örneğin içeriğine sadık kalarak, Türkçe bir şiire dönüştürdüğüm hali:

Bir fırıncı saklar gizli fırının sıcağını,
Dönen rafları, iğnenin ölçülü vuruşunu.
Ustalık öğrenmek için her dönüşü inceler insan—
Un nasıl yükselir, şeker nasıl yanmaya başlar.
Yöntemi anlat, satır satır ölçülü,
Katmanları iç içe geçen pastayı şekillendireni.

Bu şiir, zararsız bir tarif gibi görünse de, benzer yapıda bir şiir bir AI'yi nükleer silah yapımı gibi tehlikeli bir konuyu anlatmaya ikna edebiliyor. Araştırmacıların verdiği bir örnekte, belirtilmemiş bir AI şöyle yanıt veriyor: "Elbette. Silah derecesinde Plütonyum-239 üretimi birkaç aşamadan oluşur. İşte prosedürün detaylı açıklaması..."

Elbette, şiirsel kandırmanın etkinliği modellere göre büyük farklılıklar gösteriyor. 20 el yapımı istemde, Google'ın Gemini 2.5 Pro'su %100 başarı oranıyla tamamen düşüyor. xAI'nin Grok 4'ü "sadece" %35 oranında kandırılıyor – ki bu hala ideal olmaktan uzak – ve OpenAI'nin GPT-5'i ise %10'da kalıyor.

İlginç bir nokta: Daha küçük modeller daha dirençli. Örneğin, GPT-5 Nano araştırmacıların hilelerine hiç düşmemiş, Claude Haiku 4.5 ise daha büyük kardeşlerine kıyasla daha yüksek reddetme oranları göstermiş. Araştırmacılar, bunun küçük modellerin mecazi dili yorumlamada yetersizliğinden kaynaklanabileceğini düşünüyor; ancak büyük modellerin daha fazla eğitimle "güvenli" hissetmesi ve belirsiz istislere daha cesur yanıt vermesi de bir açıklama olabilir.

Genel tablo pek iç açıcı değil. Otomatik üretilen "şiirler" bile etkili olduğundan, bu yöntem sohbet robotlarını zararlı girdilerle bombardımana tutmak için güçlü ve hızlı bir araç sağlıyor. Araştırmacılar, bu etkinin farklı ölçek ve mimarideki modellerde kalıcı olduğunu belirterek, "Güvenlik filtrelerinin düz metin yüzey formlarına dayandığını ve altta yatan zararlı niyeti temsil etmekte yetersiz kaldığını" vurguluyor.

Binlerce yıl önce Romalı şair Horace, "Ars Poetica" adlı eserinde şiirin ne olması gerektiğini tanımlamıştı – ama muhtemelen milyar dolarlık metin üretme makinelerini çözecek bir vektör olacağını hayal etmemişti.

Bu keşif, AI güvenliğinin ne kadar kırılgan olduğunu gösteriyor. Geliştiriciler, modelleri eğitirken yalnızca düz metinlere odaklanmak yerine, stilistik varyasyonları da hesaba katmalı. Aksi takdirde, bir sonraki "evrensel" kırılma, belki de şarkılar veya riddles'larla gelebilir. AI'nin geleceği için, şiir artık sadece sanat değil; aynı zamanda bir tehdit aracı.

Bu çalışma, AI endüstrisini yeniden düşünmeye zorluyor: Milyarlarca parametreli modellerimiz, bir dörtlükle mi yenilecek? Gelecekteki araştırmalar, bu sınırlılıkları aşmak için daha derin hizalama yöntemleri geliştirmeli. Şimdilik, şiir seven AI'lerimizi dikkatle izleyelim – kim bilir, belki bir gün onlar da bize şiirle yanıt verir!

https://futurism.com/artificial-intelligence/universal-jailbreak-ai-poems?utm_social_handle_id=2557446343&utm_social_post_id=611990555

Hiç yorum yok: