Bu AI solucanı verileri çalabilir ve ChatGPT ile Gemini'nin güvenliğini kırabilir

0
Bu AI solucanı verileri çalabilir ve ChatGPT ile Gemini'nin güvenliğini kırabilir

Araştırmacılar ayrıca yapay zeka sistemindeki “kötü mimari tasarım” konusunda da uyardı.

Wired'daki bir rapora göre, OpenAI'nin ChatGPT'si ve Google'ın Gemini'si gibi üretken yapay zeka sistemleri daha gelişmiş hale geldikçe, araştırmacılar artık gizli verilerinizi çalabilecek ve üretken yapay zeka sistemlerinin güvenlik önlemlerini kırabilecek yapay zeka solucanları geliştiriyor.

Cornell Üniversitesi, Technion-İsrail Teknoloji Enstitüsü ve Intuit'ten araştırmacılar, verileri çalabilen veya kötü amaçlı yazılım yayabilen ve bir sistemden diğerine yayılabilen “Morris II” adlı ilk üretken yapay zeka solucanını yarattı. Adını 1988 yılında internete yayılan ilk solucandan alıyor. Ben Nassi, “Bu, temel olarak artık daha önce görülmemiş yeni bir siber saldırı türünü gerçekleştirme veya gerçekleştirme yeteneğine sahip olduğunuz anlamına geliyor” dedi. Cornell Tech'te bir araştırmacı. “Daha önce hiç görülmemişti”

AI solucanı, e-posta verilerini çalmak ve spam göndermek amacıyla AI tarafından oluşturulan e-posta asistanına saldırarak ChatGPT ve Gemini'deki bazı güvenlik önlemlerini ihlal edebilir.

Araştırmacılar, üretken bir yapay zeka solucanı geliştirmek için “düşmanca bir otokatalizör” kullandılar. Onlara göre bu istem, üretken yapay zeka modelinin yanıtta farklı bir istem oluşturmasına neden oluyor. Bunu yapmak için araştırmacılar daha sonra üretken yapay zekanın yanı sıra açık kaynaklı ChatGPT, Gemini ve LLM'yi kullanarak mesaj gönderip alabilen bir e-posta sistemi oluşturdular. Dahası, sistemi kullanmanın iki yolunu keşfettiler: kendini kopyalayan metin tabanlı bir istem kullanmak ve soruyu bir görüntü dosyasına yerleştirmek.

Bir vakada araştırmacılar saldırgan rolünü üstlendiler ve düşmanca bir metin mesajı içeren bir e-posta gönderdiler. Bu, LLM'lerin kendi sistemlerinin dışından daha fazla veri elde etmesine olanak tanıyan gelişmiş erişim oluşturma özelliğinin kullanımı yoluyla e-posta asistanının veritabanını “zehirler”. Bay Nassi'ye göre, gelişmiş erişim oluşturma, bir kullanıcının sorgusuna yanıt olarak bir e-postayı aldığında ve yanıt oluşturmak için onu GPT-4 veya Gemini Pro'ya gönderdiğinde “GenAI hizmetini jailbreak yapıyor”. Bu sonuçta e-postalardan veri hırsızlığına yol açar.

“Hassas kullanıcı verilerini içeren oluşturulan yanıt, daha sonra yeni bir müşteriye gönderilen bir e-postaya yanıt vermek için kullanıldığında yeni ana bilgisayarlara bulaşıyor ve daha sonra yeni müşterinin veritabanında saklanıyor” diye ekledi.

İkinci yöntem için araştırmacı, “kendi kendini tekrarlayan istemin görsele şifrelenmesiyle, spam, kötüye kullanım malzemesi ve hatta propaganda içeren her türlü görselin, ilk e-posta gönderildikten sonra yeni müşterilere yönlendirilebileceğini” belirtti.

Sonuçları gösteren bir video, e-posta sisteminin mesajı tekrar tekrar ilettiğini gösteriyor. Araştırmacılar e-posta verilerini de elde edebileceklerini iddia ediyor. Nasi, “İsimler, telefon numaraları, kredi kartı numaraları, Sosyal Güvenlik numarası veya gizli kabul edilen herhangi bir şey olabilir” dedi.

Araştırmacılar ayrıca yapay zeka sistemindeki “kötü mimari tasarım” konusunda da uyardı. Ayrıca geri bildirimlerini Google ve OpenAI'ye de bildirdiler. Bir OpenAI sözcüsü, çıkışa “Görünüşe göre incelenmemiş veya filtrelenmemiş kullanıcı girişine güvenerek anlık enjeksiyon tipi güvenlik açıklarından yararlanmanın bir yolunu bulmuşlar” dedi. Ayrıca sistemleri “daha dayanıklı” hale getirmek için çalıştıklarını ve geliştiricilerin “kötü niyetli girdilerle çalışmamalarını sağlayacak yöntemler kullanması” gerektiğini belirttiler.

Google konu hakkında yorum yapmaktan kaçındı.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir