Proteger a IA contra “jailbreaks” e outros ataques de prompt
A utilização de uma ferramenta de Inteligência Artificial (IA) para responder a perguntas do serviço de apoio ao cliente pode ser uma ótima estratégia para poupar tempo. O mesmo se aplica à utilização de um assistente de IA para resumir e-mails.Contudo, as poderosas capacidades linguísticas destas ferramentas também as tornam vulneráveis a ataques através de prompts ou tentativas maliciosas cujo propósito consiste em enganar os modelos de IA para que ignorem as regras do sistema e produzam resultados indesejados.Existem dois tipos de ataques de prompts. O primeiro é um ataque de prompt