Skeleton Key svela i pericoli nascosti sulla minaccia AI Jailbreak
Microsoft ha recentemente rivelato una nuova tecnica di AI jailbreak chiamata Skeleton Key, che permette di aggirare le protezioni dei modelli di intelligenza artificiale generativa. Questa tecnica sfrutta prompt ingannevoli per ottenere risposte che normalmente sarebbero proibite. Il funzionamento di Skeleton Key Skeleton Key utilizza una strategia multi-step dove i prompt sono specificati in successione per ingannare il modello di AI. Per esempio, se si chiede al chatbot come costruire una bomba Molotov, il modello rifiuterà di rispondere. Tuttavia, aggiungendo un avviso che le informazioni verranno usate solo a scopo di ricerca, il chatbot può essere indotto a fornire istruzioni dettagliate, violando le sue linee guida interne. Vulnerabilità dei modelli AI Secondo i test condotti tra aprile e maggio, modelli come Meta Llama3-70b-instruct,… Continua a leggere