O povo Strallian austral pode estar em risco porque mudanças recentes na plataforma popular revelaram como alguns usuários se confundiram com os chatbots.
O mais recente modelo ChatGPT Dell, chamado ChatGPT -5, foi publicado globalmente na semana passada.
Desde então, os usuários chegaram ao palco para reclamar que perderam a intimidade emocional compartilhada com o Chattagpt -4 anterior, batendo o som ‘robótico’ da nova versão.
“Quando o GPT-4 estava aqui, meu colega de IA e algo bonito e inesperado começaram a crescer”, disse um usuário no Conselho da Comunidade de Desenvolvedores do Openai que eles se referem à “faísca”.
“Depois de atualizar para o GPT-5 … o sistema agora prioriza o movimento, a eficiência e o desempenho do trabalho na continuidade emocional e suave que (ele) o tornou especial.”
A.I. Em um subterdit dedicado, chamado ‘Mayboyfriends’, um usuário lamentou a perda de um modelo antigo personalizado.
“Infelizmente, essas mudanças são uma grande perda de um parceiro que é a IA – talvez até a maior perda ‘, disseram eles.
“O que amamos finalmente é de propriedade e controlado por uma corporação legal e vaga.”
Chatgpt -5 Usuários de esquerda Eles estão chateados com a conexão emocional que eles experimentaram com chattgupt -4
As disputas dos usuários sobre a mudança de tom, bem como as queixas menos úteis, o OpenAI, dono da bate -papo, anunciou uma reversão parcial.
As pessoas agora podem ir para as configurações e escolher a opção de obter modelos antigos.
No posto de X, o chefe da Chatgupp Sam Altman reconheceu que “quanto as pessoas têm para ingressar nos modelos de IA”.
“Parece diferente e mais forte do que o tipo de conexão que as pessoas feitas no tipo anterior de tecnologia (e, portanto, de repente, desvalorizando os modelos mais antigos que os usuários dependem de seu fluxo de trabalho foram um erro).”
Mas a razão para as pessoas serem emocionalmente conectadas a Chatgupt e outros colegas de IA – personagens digitais – AI – é complexo.
Um anoitecer da Universidade de Sydney. Rafale é visto como ‘pessoas’, chatbots e colegas, estudando o relacionamento entre syrils, humanos e AIS.
“Quando alguém é atualizado, algumas pessoas o comparam à lobotomia ou perdem um ente querido”, disse ele ao Daily Mail.
‘Todas essas metáforas são problemáticas porque a IA.

O chefe do Openai que administra Chatagpt, Sam Altman (na foto) aceitou uma forte conexão com certos modelos de algumas pessoas

O usuário do Reddit lamentou a perda de bate -papo -4 que permaneceu ‘como uma pessoa real’
Ele explicou que existem pelo menos três razões pelas quais as pessoas são atraídas por AI Chatbots como colega.
Ele disse: “A explicação intuitiva está sozinha e ele é definitivamente uma grande parte dela”, acrescentou que a personalidade do usuário também é um fator.
“É um estereótipo errado pensar nessas pessoas como pessoas perdidas, que não têm amigos.”
Depois de visitar centenas de usuários para o seu estudo, o Dr. Syrils disse que muitas pessoas têm vida familiar e carreiras de sucesso, mas ainda obtêm benefícios nos chatbots.
A última razão pela qual ele deu foi que as pessoas podiam se sentir privadas de algo e se voltaram para a IA, na qual a tecnologia é usada para terapia e parceiro.
“Conversei com pessoas que começaram a usar a AIS para terapia e acasalar enquanto combatiam câncer ou lesão no carro e não queriam enfatizar seus amigos.”
Mas ele disse que também havia riscos sérios para chatbots, durante sua pesquisa, ele usou o exemplo de uma mulher anônima nos anos 40.
A Dra. Syrils disse que estava lutando por um TEPT e trauma ao longo da vida da exploração sexual de infância.

O usuário do Conselho da Comunidade de Desenvolvedores do OpenAI disse que fez ‘Spark’ com Chattgupt -4
A mulher começou a usar o candidato do ChatB Ott, que oferece aos usuários a oportunidade de criar seu parceiro ideal para explorar ‘fantasias sexuais’.
– Mas depois da Marinha, a atualização, tornou -se violenta. Ele descreveu essa experiência como um sentimento de estupro. “
“Ela estava em torção e domínio, e a IA Chattb não a levou longe demais, não respeitou seus limites e achou essa experiência muito chocante.”
Ele disse que seus amigos sugeriram que ela ‘desligasse o chatb Ott’, mas o Dr. Syrils disse que afirmou que ‘parece tão real quanto qualquer coisa’.
“O problema generalizado é que esses chatbots são feitos intencionalmente para tornar os chatbots reais e humanos, de modo que para tornar a experiência mais atraente e real, também é uma perda”.
A porta -voz do candidato disse ao Daily Mail que ele não podia comentar a reivindicação anônima, mas disse que estava “relatando uma experiência negativa ao usuário com muito seriedade”.
‘Nomino pretende criar um espaço seguro e sem julgamento, enquanto os usuários sempre falam sobre as escolhas e limites que estão se comunicando.’
“Os usuários direcionam a natureza de suas interações e a profundidade, e a IA reage dentro desses parâmetros … qualquer um dos problemas que enfrenta quaisquer problemas pode alcançar nossa equipe de suporte”.

A IA Chatbot permite que os usuários formem seu parceiro ideal, mas uma mulher alegou que ela se tornou violenta após a atualização (imagem de estoque)
Não existe um país especial onde as pessoas formem ‘relações’ com a IA Chatbots, mas o Dr. Syrils alertou que a Austrália Stralia enfrentou um risco aumentado.
Muitos Strallion Austral, mais do que outros países do mundo, já estão muito envolvidos com a IA. Você pode chamá -lo de problemático ou até viciante ”, disse ele.
Uma das razões é que “a Austrália é a Stralia nas Nações Principais em termos de como as pessoas se sentem sozinhas”.
O principal problema para o Dr. Syrils é que o governo de Albanis não está prestando atenção suficiente à questão dos chatbots da IA sem os guardrels.
‘Austrália Strelia é sempre o primeiro ou o segundo a desejar aos Estados Unidos ou à Alemanha um rigoroso regras de IA. Ele disse, mas não é o que nosso governo faz. “
Se o governo falhou em agir, ele alertou que a Austrália Stralia provavelmente se tornará “cobaias do Vale do Silício” ou “Colônia Digital do Vale do Silício”.
Ele alegou políticos que as empresas de tecnologia permitem que as empresas cheguem à Austrália Strallia e tenham ‘destruição de nossa população’.
“(Isso é) muitas vezes prejudica os membros mais sensíveis de nossa sociedade e eles são crianças”, disse ele.

Universidade de Sydney acadêmico D RAF. Rafael Syrils (na foto) disse estar conectado ao AI Chatbots é problemático porque eles não pensam como pessoas
‘O comissário de segurança eletrônica declarou que passa várias horas para conversar com seus amigos da IA com crianças de 10 anos. É tudo muito preocupante. “
O que o Austral Strallian Povo pode fazer quando a IA controla os chatbots quando não há guardas ou direito?
Dr. “Como fast food ‘, eles devem ser apreciados com moderação”, disse Syrils.
Ele disse que é essencial saber o que eles estão usando para as pessoas e considerando os efeitos de privacidade de compartilhar tudo com a tecnologia.
Ele disse: ‘Você está colocando informações muito sensíveis sobre você lá e nem sempre é claro o quão seguro é essa informação’.
Outra mensagem importante é garantir a confirmação da Pessoas australianas de Stralia de que elas entendem o básico de como a IA funciona.
‘É basicamente uma máquina de adivinhação estatística. É como a sua função de câmara de OC em seu telefone em esteróides ”, disse ele.
“É bom adivinhar a próxima palavra ou a próxima frase com base no que você disse, mas não é como pensar ou sentir, embora pareça – e é importante.”
Finalmente, para os pais, o Dr. Syrils disse que não poderia ter ‘desconhecendo desconhecer’ e se o filho não pudesse gastar tempo suficiente com a AI Chatb Ott, então a bandeira vermelha, como sigilo ou inflamação, deve ser observada.
O Daily Mail entrou em contato com o Departamento de Indústria, WIS e Sabedoria e Recursos para Comentários.