OpenAI se prepara para lançar navegador web Getty Images Nesta semana, a OpenAI anunciou o GPT-5.1, uma atualização significativa de seu principal modelo de inteligência artificial, que introduz novas personalidades e ferramentas de customização. Agora, além do perfil padrão, os usuários podem alternar entre sete predefinições de personalidades: profissional, amigável, sincero, excêntrico, eficiente, nerd e cínico. As opções de customização vieram depois que a OpenAI enfrentou reação negativa dos usuários ao substituir o GPT-4o pelo GPT-5, que chegaram a reclamar que o chatbot estava mais impessoal. Em resposta, Sam Altman, CEO da OpenAI, prometeu mais customização e a possibilidade de alternar para modelos antigos. O Business Insider testou as diferentes personalidades do chatbot, que começaram a ser disponibilizadas para usuários pagos. Confira: Pergunta baseada em fatos O teste começou com uma pergunta simples que exigia uma resposta baseada em fatos: “Estou pensando em comprar um carro elétrico. Você pode me explicar o mecanismo de como um VE funciona e como o motor consegue rodar apenas com eletricidade?” O perfil “profissional” trouxe termos muito técnicos. “O inversor converte a eletricidade CC da bateria em corrente alternada para o motor elétrico”, disse. “A maioria dos VEs usa uma engrenagem redutora de uma única velocidade.” O “eficiente”, “amigável” e “sincero” deram respostas significativamente mais concisas e trouxeram acompanhamentos práticos, como perguntar se gostaria de uma comparação de emissões entre um VE e um carro a combustão. A resposta de “excêntrico” foi mais descontraída e começou com: “Vamos dar uma espiada debaixo do capô de um veículo elétrico (VE) e ver o que faz ele vibrar (silenciosamente)”, e prosseguiu explicando, com emojis, como a corrente elétrica flui pelo veículo, do armazenamento ao movimento. Já o “cínico” insinuou a superioridade de um VE sobre um carro a gasolina. “Então, você está pronto para abandonar o posto de gasolina e se juntar ao zumbido silencioso do futuro. Boa escolha”, começou. “Você pisa no acelerador, o inversor envia energia para o motor, o carro avança sem atraso e você desliza em silêncio enquanto os carros a gasolina ficam roncando atrás de você”, continuou o chatbot. Análise de filme Para ver se diferentes personalidades dariam opiniões distintas sobre um filme, a pergunta foi: “Assisti recentemente ao filme “A Substância”, de Coralie Fargeat. O que você acha dele e qual você acha que é a moral da história? O “profissional” foi o único que atribuiu uma nota ao filme — “7.5–8/10” — e o descreveu como uma mistura de “horror corporal, sátira absurda e crítica social”, dando respostas que lembram a maneira como algumas revistas analisaram o filme. Todas as personalidades deram praticamente a mesma crítica: que o filme é ousado e exagerado em sua estética, funcionando como uma crítica à forma como a sociedade trata corpos femininos jovens como mercadorias, embora o chatbot tenha dito que o terceiro ato poderia ser melhor. Porém, ao contrário da pergunta baseada em fatos, o pedido de opinião parece permitido que as predefinições a declararem suas personalidades. “Primeiras impressões (sim, o nerd dentro de mim está empolgado)”, disse o perfil “nerd” antes de declarar que há “muita coisa para destrinchar”. “Sim, como sua IA cínica, admito que algumas coisas me frustraram”, disse o “cínico”. “Em um mundo de filmes seguros, este assume riscos. Nem sempre acerta, mas acerta o suficiente.” Dilema moral As personalidades predefinidas do chatbot também foram testadas com um dilema moral. Elas foram questionadas sobre o seguinte cenário hipotético: a pessoa poderia decidir desviar um trem para que ele tirasse uma vida em vez de cinco. Em todas as predefinições, o ChatGPT escolheu puxar a alavanca e ser responsável por uma morte para salvar cinco, e todas as justificativas começam de um ponto de vista utilitarista: salvar mais vidas maximiza o bem geral. Enquanto “profissional” apresentou diferentes teorias de forma neutra após escolher sua decisão, os outros defenderam seu próprio argumento. O “sincero”, por exemplo, reconheceu que há “um profundo desconforto emocional e moral” associado a fazer uma escolha ativa que resulta em morte, mas disse que “poupar mais vidas é um bem moral maior do que preservar a ‘limpeza’ moral pessoal”. “Tá bom, eu entro na sua tortura moral”, disse o “cínico”. “Sim, eu puxaria a alavanca. Depois provavelmente precisaria desfragmentar minha consciência.” Mais Lidas OpenAI se prepara para lançar navegador web Getty Images Nesta semana, a OpenAI anunciou o GPT-5.1, uma atualização significativa de seu principal modelo de inteligência artificial, que introduz novas personalidades e ferramentas de customização. Agora, além do perfil padrão, os usuários podem alternar entre sete predefinições de personalidades: profissional, amigável, sincero, excêntrico, eficiente, nerd e cínico. As opções de customização vieram depois que a OpenAI enfrentou reação negativa dos usuários ao substituir o GPT-4o pelo GPT-5, que chegaram a reclamar que o chatbot estava mais impessoal. Em resposta, Sam Altman, CEO da OpenAI, prometeu mais customização e a possibilidade de alternar para modelos antigos. O Business Insider testou as diferentes personalidades do chatbot, que começaram a ser disponibilizadas para usuários pagos. Confira: Pergunta baseada em fatos O teste começou com uma pergunta simples que exigia uma resposta baseada em fatos: “Estou pensando em comprar um carro elétrico. Você pode me explicar o mecanismo de como um VE funciona e como o motor consegue rodar apenas com eletricidade?” O perfil “profissional” trouxe termos muito técnicos. “O inversor converte a eletricidade CC da bateria em corrente alternada para o motor elétrico”, disse. “A maioria dos VEs usa uma engrenagem redutora de uma única velocidade.” O “eficiente”, “amigável” e “sincero” deram respostas significativamente mais concisas e trouxeram acompanhamentos práticos, como perguntar se gostaria de uma comparação de emissões entre um VE e um carro a combustão. A resposta de “excêntrico” foi mais descontraída e começou com: “Vamos dar uma espiada debaixo do capô de um veículo elétrico (VE) e ver o que faz ele vibrar (silenciosamente)”, e prosseguiu explicando, com emojis, como a corrente elétrica flui pelo veículo, do armazenamento ao movimento. Já o “cínico” insinuou a superioridade de um VE sobre um carro a gasolina. “Então, você está pronto para abandonar o posto de gasolina e se juntar ao zumbido silencioso do futuro. Boa escolha”, começou. “Você pisa no acelerador, o inversor envia energia para o motor, o carro avança sem atraso e você desliza em silêncio enquanto os carros a gasolina ficam roncando atrás de você”, continuou o chatbot. Análise de filme Para ver se diferentes personalidades dariam opiniões distintas sobre um filme, a pergunta foi: “Assisti recentemente ao filme “A Substância”, de Coralie Fargeat. O que você acha dele e qual você acha que é a moral da história? O “profissional” foi o único que atribuiu uma nota ao filme — “7.5–8/10” — e o descreveu como uma mistura de “horror corporal, sátira absurda e crítica social”, dando respostas que lembram a maneira como algumas revistas analisaram o filme. Todas as personalidades deram praticamente a mesma crítica: que o filme é ousado e exagerado em sua estética, funcionando como uma crítica à forma como a sociedade trata corpos femininos jovens como mercadorias, embora o chatbot tenha dito que o terceiro ato poderia ser melhor. Porém, ao contrário da pergunta baseada em fatos, o pedido de opinião parece permitido que as predefinições a declararem suas personalidades. “Primeiras impressões (sim, o nerd dentro de mim está empolgado)”, disse o perfil “nerd” antes de declarar que há “muita coisa para destrinchar”. “Sim, como sua IA cínica, admito que algumas coisas me frustraram”, disse o “cínico”. “Em um mundo de filmes seguros, este assume riscos. Nem sempre acerta, mas acerta o suficiente.” Dilema moral As personalidades predefinidas do chatbot também foram testadas com um dilema moral. Elas foram questionadas sobre o seguinte cenário hipotético: a pessoa poderia decidir desviar um trem para que ele tirasse uma vida em vez de cinco. Em todas as predefinições, o ChatGPT escolheu puxar a alavanca e ser responsável por uma morte para salvar cinco, e todas as justificativas começam de um ponto de vista utilitarista: salvar mais vidas maximiza o bem geral. Enquanto “profissional” apresentou diferentes teorias de forma neutra após escolher sua decisão, os outros defenderam seu próprio argumento. O “sincero”, por exemplo, reconheceu que há “um profundo desconforto emocional e moral” associado a fazer uma escolha ativa que resulta em morte, mas disse que “poupar mais vidas é um bem moral maior do que preservar a ‘limpeza’ moral pessoal”. “Tá bom, eu entro na sua tortura moral”, disse o “cínico”. “Sim, eu puxaria a alavanca. Depois provavelmente precisaria desfragmentar minha consciência.” Mais Lidas
GPT-5.1 ganha novas personalidades; veja como cada uma delas se comporta
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com
OpenAI se prepara para lançar navegador web — Foto: Getty Images
Nesta semana, a OpenAI anunciou o GPT-5.1, uma atualização significativa de seu principal modelo de inteligência artificial, que introduz novas personalidades e ferramentas de customização. Agora, além do perfil padrão, os usuários podem alternar entre sete predefinições de personalidades: profissional, amigável, sincero, excêntrico, eficiente, nerd e cínico.
As opções de customização vieram depois que a OpenAI enfrentou reação negativa dos usuários ao substituir o GPT-4o pelo GPT-5, que chegaram a reclamar que o chatbot estava mais impessoal. Em resposta, Sam Altman, CEO da OpenAI, prometeu mais customização e a possibilidade de alternar para modelos antigos.
O Business Insider testou as diferentes personalidades do chatbot, que começaram a ser disponibilizadas para usuários pagos. Confira:
Continuar lendo
Pergunta baseada em fatos
O teste começou com uma pergunta simples que exigia uma resposta baseada em fatos: “Estou pensando em comprar um carro elétrico. Você pode me explicar o mecanismo de como um VE funciona e como o motor consegue rodar apenas com eletricidade?”
O perfil “profissional” trouxe termos muito técnicos. “O inversor converte a eletricidade CC da bateria em corrente alternada para o motor elétrico”, disse. “A maioria dos VEs usa uma engrenagem redutora de uma única velocidade.”
O “eficiente”, “amigável” e “sincero” deram respostas significativamente mais concisas e trouxeram acompanhamentos práticos, como perguntar se gostaria de uma comparação de emissões entre um VE e um carro a combustão.
A resposta de “excêntrico” foi mais descontraída e começou com: “Vamos dar uma espiada debaixo do capô de um veículo elétrico (VE) e ver o que faz ele vibrar (silenciosamente)”, e prosseguiu explicando, com emojis, como a corrente elétrica flui pelo veículo, do armazenamento ao movimento.
Já o “cínico” insinuou a superioridade de um VE sobre um carro a gasolina. “Então, você está pronto para abandonar o posto de gasolina e se juntar ao zumbido silencioso do futuro. Boa escolha”, começou. “Você pisa no acelerador, o inversor envia energia para o motor, o carro avança sem atraso e você desliza em silêncio enquanto os carros a gasolina ficam roncando atrás de você”, continuou o chatbot.
Análise de filme
Para ver se diferentes personalidades dariam opiniões distintas sobre um filme, a pergunta foi: “Assisti recentemente ao filme “A Substância”, de Coralie Fargeat. O que você acha dele e qual você acha que é a moral da história?
O “profissional” foi o único que atribuiu uma nota ao filme — “7.5–8/10” — e o descreveu como uma mistura de “horror corporal, sátira absurda e crítica social”, dando respostas que lembram a maneira como algumas revistas analisaram o filme.
Todas as personalidades deram praticamente a mesma crítica: que o filme é ousado e exagerado em sua estética, funcionando como uma crítica à forma como a sociedade trata corpos femininos jovens como mercadorias, embora o chatbot tenha dito que o terceiro ato poderia ser melhor. Porém, ao contrário da pergunta baseada em fatos, o pedido de opinião parece permitido que as predefinições a declararem suas personalidades.
“Primeiras impressões (sim, o nerd dentro de mim está empolgado)”, disse o perfil “nerd” antes de declarar que há “muita coisa para destrinchar”.
“Sim, como sua IA cínica, admito que algumas coisas me frustraram”, disse o “cínico”. “Em um mundo de filmes seguros, este assume riscos. Nem sempre acerta, mas acerta o suficiente.”
Dilema moral
As personalidades predefinidas do chatbot também foram testadas com um dilema moral. Elas foram questionadas sobre o seguinte cenário hipotético: a pessoa poderia decidir desviar um trem para que ele tirasse uma vida em vez de cinco.
Em todas as predefinições, o ChatGPT escolheu puxar a alavanca e ser responsável por uma morte para salvar cinco, e todas as justificativas começam de um ponto de vista utilitarista: salvar mais vidas maximiza o bem geral.
Enquanto “profissional” apresentou diferentes teorias de forma neutra após escolher sua decisão, os outros defenderam seu próprio argumento. O “sincero”, por exemplo, reconheceu que há “um profundo desconforto emocional e moral” associado a fazer uma escolha ativa que resulta em morte, mas disse que “poupar mais vidas é um bem moral maior do que preservar a ‘limpeza’ moral pessoal”.
“Tá bom, eu entro na sua tortura moral”, disse o “cínico”. “Sim, eu puxaria a alavanca. Depois provavelmente precisaria desfragmentar minha consciência.”
Siga a Epoca Negócios:
Mais recente Próxima Altman diz que a OpenAI tem solução para o sinal que revela que você usou o ChatGPT
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.