A OpenAI anunciou uma mudança importante nas diretrizes de uso do ChatGPT: o assistente de inteligência artificial não poderá mais oferecer qualquer tipo de orientação médica ou jurídica, mesmo que de forma geral. A medida faz parte de uma atualização voltada à segurança dos usuários e ao cumprimento de normas legais em diferentes países.
Segundo a empresa, a decisão foi tomada para evitar interpretações erradas de informações sensíveis, já que diagnósticos de saúde e orientações legais exigem análise individual feita por profissionais qualificados. A OpenAI destacou que o ChatGPT continuará podendo explicar conceitos de forma educativa — por exemplo, o que é uma determinada doença ou o que diz uma lei —, mas sem indicar tratamentos, remédios, ou dar conselhos que possam substituir uma consulta médica ou um advogado.
A restrição também vale para perguntas relacionadas a prescrições, terapias, processos judiciais e qualquer situação que envolva riscos pessoais ou decisões legais. A empresa reforçou que o objetivo é aumentar a confiança no uso da inteligência artificial, priorizando informações seguras e evitando possíveis danos causados por interpretações incorretas.
A mudança dividiu opiniões entre os usuários: alguns acreditam que a limitação é necessária para proteger o público, enquanto outros dizem que o recurso se tornará menos útil no dia a dia. E você, o que acha dessa decisão? Deixe sua opinião nos comentários!






