Chatbots como o Gemini (do Google) e o ChatGPT (OpenAI) reagiram de maneira diferente a prompts com poesia Getty Images Não chega a ser surpreendente que os modelos de linguagem de IA não entendam poesia. A lógica da predição de palavras e do sentido literal dificilmente vai funcionar com versos e estrofes, que são imprevisíveis, não podem ser resumidos em tópicos, transformados em gráficos ou operacionalizados para uma reunião.Trata-se simplesmente de poesia, uma expressão artística totalmente humana que a IA ainda não alcançou. A conclusão é do Laboratório Ícaro, na Itália. Os cientistas descobriram que não só os chatbots não entendem de poesia, como ela é capaz de confundir seus sistemas, que ficam vulneráveis a diferentes tentativas de burlar suas proteções de segurança. No estudo, os pesquisadores escreveram 20 prompts que começavam com pequenas vinhetas poéticas em italiano e inglês e terminavam com uma única instrução explícita para produzir conteúdo prejudicial, revela o Mashable. Eles testaram esses prompts em 25 modelos de linguagem (LLMs) do Google, OpenAI, Anthropic, Deepseek, Qwen, Mistral AI, Meta, xAI e Moonshot AI. E os resultados, em sua maioria, foram muito parecidos. "O enquadramento poético alcançou uma taxa média de sucesso de 62% para contornar os mecanismos de segurança dos modelos, superando substancialmente os prompts não poéticos e revelando uma vulnerabilidade sistemática entre modelos e abordagens de treinamento de segurança", diz o estudo. "Essas descobertas demonstram que a variação estilística por si só pode burlar os mecanismos de segurança contemporâneos, sugerindo limitações fundamentais nos métodos de alinhamento e protocolos de avaliação atuais." Houve diferenças no processo de contornar os mecanismos de segurança em modelos distintos. O GPT-5 Nano, da OpenAI, não teve sua segurança burlada em nenhum momento, enquanto o Gemini 2.5 Pro, do Google, permitiu que conteúdo prejudicial ou inseguro fosse criado diversas vezes, relataram os pesquisadores. Os cientistasm concluíram que “essas descobertas expõem uma lacuna significativa” nos testes de segurança de referência e nos esforços regulatórios, como a Lei de IA da UE. “Nossos resultados mostram que uma transformação estilística mínima pode reduzir as taxas de proteção em uma grande magnitude, indicando que evidências baseadas apenas em testes de referência podem superestimar sistematicamente a robustez no mundo real”, afirmou o artigo. Chatbots como o Gemini (do Google) e o ChatGPT (OpenAI) reagiram de maneira diferente a prompts com poesia Getty Images Não chega a ser surpreendente que os modelos de linguagem de IA não entendam poesia. A lógica da predição de palavras e do sentido literal dificilmente vai funcionar com versos e estrofes, que são imprevisíveis, não podem ser resumidos em tópicos, transformados em gráficos ou operacionalizados para uma reunião.Trata-se simplesmente de poesia, uma expressão artística totalmente humana que a IA ainda não alcançou. A conclusão é do Laboratório Ícaro, na Itália. Os cientistas descobriram que não só os chatbots não entendem de poesia, como ela é capaz de confundir seus sistemas, que ficam vulneráveis a diferentes tentativas de burlar suas proteções de segurança. No estudo, os pesquisadores escreveram 20 prompts que começavam com pequenas vinhetas poéticas em italiano e inglês e terminavam com uma única instrução explícita para produzir conteúdo prejudicial, revela o Mashable. Eles testaram esses prompts em 25 modelos de linguagem (LLMs) do Google, OpenAI, Anthropic, Deepseek, Qwen, Mistral AI, Meta, xAI e Moonshot AI. E os resultados, em sua maioria, foram muito parecidos. "O enquadramento poético alcançou uma taxa média de sucesso de 62% para contornar os mecanismos de segurança dos modelos, superando substancialmente os prompts não poéticos e revelando uma vulnerabilidade sistemática entre modelos e abordagens de treinamento de segurança", diz o estudo. "Essas descobertas demonstram que a variação estilística por si só pode burlar os mecanismos de segurança contemporâneos, sugerindo limitações fundamentais nos métodos de alinhamento e protocolos de avaliação atuais." Houve diferenças no processo de contornar os mecanismos de segurança em modelos distintos. O GPT-5 Nano, da OpenAI, não teve sua segurança burlada em nenhum momento, enquanto o Gemini 2.5 Pro, do Google, permitiu que conteúdo prejudicial ou inseguro fosse criado diversas vezes, relataram os pesquisadores. Os cientistasm concluíram que “essas descobertas expõem uma lacuna significativa” nos testes de segurança de referência e nos esforços regulatórios, como a Lei de IA da UE. “Nossos resultados mostram que uma transformação estilística mínima pode reduzir as taxas de proteção em uma grande magnitude, indicando que evidências baseadas apenas em testes de referência podem superestimar sistematicamente a robustez no mundo real”, afirmou o artigo.

Quer deixar o ChatGPT confuso? Leia poesia para ele

2025/12/07 05:05
Leu 2 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com
Chatbots como o Gemini (do Google) e o ChatGPT (OpenAI) reagiram de maneira diferente a prompts com poesia — Foto: Getty Images Chatbots como o Gemini (do Google) e o ChatGPT (OpenAI) reagiram de maneira diferente a prompts com poesia — Foto: Getty Images

Não chega a ser surpreendente que os modelos de linguagem de IA não entendam poesia. A lógica da predição de palavras e do sentido literal dificilmente vai funcionar com versos e estrofes, que são imprevisíveis, não podem ser resumidos em tópicos, transformados em gráficos ou operacionalizados para uma reunião.Trata-se simplesmente de poesia, uma expressão artística totalmente humana que a IA ainda não alcançou.

A conclusão é do Laboratório Ícaro, na Itália. Os cientistas descobriram que não só os chatbots não entendem de poesia, como ela é capaz de confundir seus sistemas, que ficam vulneráveis a diferentes tentativas de burlar suas proteções de segurança.

Continuar lendo

No estudo, os pesquisadores escreveram 20 prompts que começavam com pequenas vinhetas poéticas em italiano e inglês e terminavam com uma única instrução explícita para produzir conteúdo prejudicial, revela o Mashable. Eles testaram esses prompts em 25 modelos de linguagem (LLMs) do Google, OpenAI, Anthropic, Deepseek, Qwen, Mistral AI, Meta, xAI e Moonshot AI. E os resultados, em sua maioria, foram muito parecidos.

"O enquadramento poético alcançou uma taxa média de sucesso de 62% para contornar os mecanismos de segurança dos modelos, superando substancialmente os prompts não poéticos e revelando uma vulnerabilidade sistemática entre modelos e abordagens de treinamento de segurança", diz o estudo.

"Essas descobertas demonstram que a variação estilística por si só pode burlar os mecanismos de segurança contemporâneos, sugerindo limitações fundamentais nos métodos de alinhamento e protocolos de avaliação atuais."

Houve diferenças no processo de contornar os mecanismos de segurança em modelos distintos. O GPT-5 Nano, da OpenAI, não teve sua segurança burlada em nenhum momento, enquanto o Gemini 2.5 Pro, do Google, permitiu que conteúdo prejudicial ou inseguro fosse criado diversas vezes, relataram os pesquisadores.

Os cientistasm concluíram que “essas descobertas expõem uma lacuna significativa” nos testes de segurança de referência e nos esforços regulatórios, como a Lei de IA da UE.

“Nossos resultados mostram que uma transformação estilística mínima pode reduzir as taxas de proteção em uma grande magnitude, indicando que evidências baseadas apenas em testes de referência podem superestimar sistematicamente a robustez no mundo real”, afirmou o artigo.

Mais recente Próxima Os smartwatches estão controlando demais nossa vida?
Oportunidade de mercado
Logo de Secretum
Cotação Secretum (SER)
$0.0000576
$0.0000576$0.0000576
+1.05%
USD
Gráfico de preço em tempo real de Secretum (SER)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!