L'Intelligenza Artificiale è sempre aggirabile

Sul Sole 24 Ore del 2 marzo Andrea Carobene, Direttore di BAIA, riflette sull’uso malevolo di ChatGPT, l’intelligenza artificiale generativa da mesi al centro dell’attenzione mediatica. ChatGPT può essere infatti usata per costruire bombe. E questo anche quando i programmatori inseriscono dei “blocchi” per evitarne un utilizzo cattivo: tali blocchi sono di fatto aggirabili. Per quanto sia un articolo divulgativo, l'idea si basa sui risultati di Bertrand Russel, Alfred Tarski e Kurt Gödel. Giocando sul rapporto tra linguaggio e metalinguaggio, si mostra come sia sempre possibile, “in linea di principio”, superare qualsiasi procedura inserita dai programmatori per impedire output pericolosi. In altre parole, questo tipo di macchine potranno sempre essere usate per avere informazioni “cattive” come costruire una bomba, fare del male a una persona, distruggere un’azienda… Una riflessione che potrà aiutare a innescare un dibattuto sulla potenzialità e bellezza di questo tipo di intelligenze artificiali, ma anche sui loro risvolti etici.

}