Saldırganlar, şifrelemeye rağmen ve yapay zekanın yardımıyla yapay zeka yanıtlarını ele geçiriyor

Adanali

Member
Seyahat noktalarından tıbbi keşiflerin olası etkilerine kadar her geçen gün daha fazla kullanıcı, kişisel ve bazen son derece hassas şeyleri aramak için yapay zekayı kullanıyor. İletimin güvenli olduğuna ve Hinz&Kunz'un şu anda aklınızdan geçenleri okuyamayacağına güvenebilirsiniz. Ben-Gurion Üniversitesi'ndeki araştırmacılar artık çoğu durumda bu güvenliğin garanti edilmediğini gösterdi. Çünkü ChatGPT ve diğer GPT'lerin yanıtlarını, şifrelenmiş iletilen verilerden şaşırtıcı derecede yüksek bir güvenle yeniden yapılandırmayı başardılar.

Duyuru



Doğal olarak ChatGPT & Co ile yapılan görüşmelerin İnternet üzerinden aktarımı Aktarım Katmanı Güvenliği (TLS) ile korunmaktadır; Bu nedenle kulak misafiri yalnızca şifrelenmiş önemsiz verileri görür. Ve tabii ki araştırmacılar da altta yatan şifrelemeyi kıramadılar. Bunun yerine, konuşmanın ne hakkında olduğunu tahmin etmek için yapay zekanın sohbet tuhaflıklarından yararlandılar. Ve hiç de şaşırtıcı değil, bu amaç için özel olarak uyarlanmış yapay zeka onlara yardım etti.

Kelime uzunluklarını ortaya çıkarma


Temel sorun, dilsel yapay zekaların kelime kelime çalışması ve yanıtlarının aslında tek kelimelerle iletilmesidir (kesin olarak konuşursak, jetonlar en küçük birimdir, ancak bu ayrım burada geçerli değildir). Ve akış şifresi adı verilen kullanılan şifreleme, her zaman bir karakteri tam olarak bir başkasıyla değiştirir. Başka bir deyişle: Bir dinleyici, içeriği hakkında hiçbir fikri olmasa bile, ele geçirilen veri paketlerinin boyutundan kelimelerin uzunluğunu belirleyebilir. Bu tipik bir yan kanaldır, yani konuşmanın korunan içeriği hakkında yan etkiler yoluyla bilgi akışı.







Sözcüklerin uzunluğu, ChatGPT'nin yanıtlarının büyük bir bölümünü yapay zeka desteğiyle yeniden oluşturabilmek için yeterli.


(Resim: Roy Weiss ve diğerleri)



Bu, bir metni yeniden yapılandırmak için yeterli değildir. Ancak yapay zeka yanıtlarının tipik kalıplar gösterdiği biliniyor. Araştırmacılar yapay zekalarını sohbet davranışındaki tam olarak bu tuhaflıklarla beslediler ve ardından bunları paketlerin uzunluğundan konuşmanın içeriğini yeniden oluşturmak için kullandılar. Ve deneylerde bu, vakaların şaşırtıcı bir şekilde %29'unda ve duyulan tüm yanıtların yaklaşık %55'inde en azından yeterince başarılı oldu. Yaklaşık olarak aynı uzunluktaki kelimeler yanlıştı; Ancak yine de en azından konuşmanın konusunu belirlemek mümkündü.

Bu arada, bu saldırı yalnızca yapay zeka yanıtlarıyla işe yarıyor; Kullanıcı soruları tek seferde gönderilir ve bu nedenle tek tek kelimelerin uzunluğuna ilişkin herhangi bir bilgi içermez. Pek çok sesli yapay zeka, özellikle de OpenAI, Microsoft ve Anthropic'inkiler savunmasızdı. Google tek tek sözcükler göndermediği için bu saldırı Bard'da işe yaramadı. Alternatif olarak, iletilen veri paketlerinin her zaman belirli bir minimum uzunluğa kadar doldurulduğu sözde doldurma, Weiss ve arkadaşlarına LLM yan kanal saldırısı hakkındaki yayınlarında yardımcı olabilir. OpenAI ve Cloudflare artık bu önlemi yapay zekalarının olası dinleyicilerine karşı uygulamaya koydu.


(Evet)



Haberin Sonu
 
Üst