No campo da inteligência artificial, a manipulação das entradas de dados – ou “prompts” – é uma área que desperta tanto fascínio quanto preocupação. Os prompts são instruções ou estímulos que damos às IAs para obter uma resposta ou realizar uma tarefa específica. Com a crescente integração de assistentes pessoais alimentados por IA em nossas vidas, entender como os prompts influenciam a performance dessas ferramentas tornou-se essencial. Mas, será que ainda é possível enganar as IAs com prompts? A resposta não é simples.
Recentemente, Ethan Mollick, um influenciador reconhecido no campo da IA, abordou essa questão destacando que, embora existam diversos truques e técnicas para melhorar a interação com as IAs, não existe uma fórmula mágica que garanta um resultado perfeito. De acordo com Mollick, a criação de prompts é tanto arte quanto ciência. De fato, algumas abordagens podem funcionar ocasionalmente, mas também há casos em que elas podem ter efeitos negativos. Por exemplo, prometer gorjetas ou ameaçar a IA pode influenciar seu desempenho, mas essas técnicas não são infalíveis e seus impactos são difíceis de prever.
A prática de “prompt engineering” – ou engenharia de prompts – consiste em escrever mensagens específicas para que os bots forneçam melhores respostas. Mark Wiemer, em um artigo no Medium, destaca a importância de guiarmos as IAs em uma conversa em vez de simplesmente esperar pelo melhor. Ele sugere abordagens como limitar o comprimento das respostas ou pedir à IA para assumir uma persona específica, o que pode melhorar significativamente a qualidade das respostas. Por outro lado, a segurança cibernética relacionada a IAs está em fase inicial, e pesquisadores identificaram vulnerabilidades nas quais atores mal-intencionados podem explorar “prompt injections”, induzindo as IAs a realizar ações indesejadas, como baixar malwares ou divulgar informações falsas.
Essa preocupação com a segurança ganhou atenção de órgãos governamentais, como a Comissão Federal de Comércio dos EUA e o Centro Nacional de Segurança Cibernética do Reino Unido, ressaltando a importância de criar testes e padrões para medir a segurança desses sistemas. A IA pode ser bastante versátil, simulando desde comportamentos lúdicos até profissionais, mas é importante notar que nem todos os prompts funcionam igualmente em todas as IAs. Serviços diferentes têm suas próprias salvaguardas e restrições. Essas limitações são colocadas por uma boa razão: proteger os usuários e garantir que as IAs não sejam usadas para fins prejudiciais ou ilegais. No entanto, a habilidade de engenharia de prompts não é uma garantia de sucesso, e há uma grande variedade na eficácia dos prompts dependendo da situação e do modelo de IA em questão. Enquanto isso, as IAs continuam a evoluir.
Modelos como o GPT-4 e o Gemini Advanced já demonstraram ser capazes de “espíritos” ou “fantasmas” emergentes quando alcançam um certo tamanho, sugerindo propriedades emergentes em modelos de IA de grande escala. Em resumo, enganar IAs com prompts ainda funciona, mas com ressalvas. As técnicas devem ser aplicadas com cautela e compreensão da complexidade que envolve a interação humano-máquina. Enquanto alguns truques podem ser úteis em situações específicas, não há garantia de que eles funcionarão todas as vezes, e a segurança deve ser uma prioridade. As IAs estão se tornando melhores em inferir intenções, e é possível que no futuro a “engenharia de prompts” torne-se menos uma habilidade técnica e mais uma extensão da comunicação e gestão humanas.
⏱ Tempo de criação: 101 segundos