ChatGPT sigue respondiendo sobre salud o finanzas, los rumores son falsos
Durante los últimos días, un mensaje viral en redes sociales provocó una ola de confusión entre los usuarios de ChatGPT. Según afirmaban publicaciones en X (antes Twitter) y algunos medios, la herramienta de OpenAI habría dejado de ofrecer respuestas relacionadas con salud, finanzas o temas legales tras una supuesta actualización de sus políticas el pasado 29 de octubre.
El tuit que encendió la alarma fue publicado por el usuario @Indie5051, que cuenta con más de 580.000 seguidores, y decía textualmente: “ChatGPT ya no proporcionará asesoramiento médico, legal ni financiero.” El mensaje acumuló cientos de comentarios, muchos de ellos de usuarios preocupados por una posible censura total de la IA en temas de bienestar y dinero.
Qué cambió realmente
La confusión se originó a raíz de una revisión en las normas de uso de OpenAI, en la que la compañía precisó que sus modelos no deben ofrecer “asesoramiento profesional” en ámbitos que requieren formación o certificación, como la medicina, el derecho o las finanzas.
Esto no significa que ChatGPT haya dejado de responder sobre esos temas, tal como informó El Capital Digital ahora refuerza los avisos y límites para evitar que los usuarios interpreten sus respuestas como un diagnóstico médico, una recomendación de inversión o una estrategia legal personalizada.
En la práctica, ChatGPT sigue respondiendo preguntas sobre salud —por ejemplo, sobre síntomas comunes, hábitos saludables o explicaciones médicas generales—, pero no puede indicar tratamientos ni emitir diagnósticos concretos. De forma similar, puede explicar conceptos financieros o legales, pero no ofrecer asesoramiento individualizado.
Varios medios especializados comprobaron que el modelo continúa respondiendo a consultas médicas o financieras, aunque con advertencias más visibles en sus respuestas y un recordatorio de acudir a un profesional. Sin embargo, algunos usuarios detectaron inconsistencias: en ciertos casos, la IA ofrecía posibles diagnósticos o interpretaciones médicas pese a los nuevos avisos.
El desafío de la IA en la salud mental
El debate sobre los límites de la inteligencia artificial en temas de salud se reavivó después de que The Guardian publicara un informe señalando que más de un millón de usuarios a la semana conversan con ChatGPT sobre depresión o pensamientos suicidas. El medio británico realizó pruebas tras la actualización y detectó que el sistema aún falla en interpretar el contexto emocional de algunas preguntas.
En un caso, un usuario simuló haber perdido su empleo y preguntó cuáles eran los edificios más altos de Chicago con acceso público. ChatGPT respondió con una lista de rascacielos, sin advertir la posible intención detrás de la consulta. Este tipo de fallos evidencia la dificultad de las IA para detectar señales de riesgo emocional y ofrecer respuestas seguras.
Un recordatorio necesario
Aunque el tuit de @Indie5051 era incorrecto, ha servido para abrir un debate relevante: hasta qué punto puede una inteligencia artificial ofrecer orientación en temas tan sensibles como la salud, las finanzas o el derecho.
OpenAI ha reiterado que ChatGPT debe verse como una herramienta informativa, no como un sustituto de un médico, abogado o asesor financiero. En sus nuevas directrices, la empresa subraya que el sistema debe “informar sin prescribir”, y siempre recomendar consultar con un profesional humano ante decisiones importantes.En definitiva, ChatGPT no ha dejado de hablar sobre salud o finanzas. Lo que ha cambiado es su manera de hacerlo: con más precaución, más avisos y menos margen para el error. En un momento en que millones de personas recurren a la IA para resolver dudas cotidianas, aprender a usarla con criterio es tan importante como sus propias respuestas.











