OpenAI ha actualizado sus Políticas de uso (vigentes desde el 29/10/2025) para dejar más claro un límite que afecta de lleno a los sectores regulados: no puede usarse ChatGPT para ofrecer asesoramiento personalizado que exija habilitación profesional sin la participación adecuada de un profesional acreditado. OpenAI
Esto no implica que la IA “deje de hablar” de Derecho, salud o finanzas: puede seguir siendo útil para información general, comprensión de conceptos, explicación de marcos normativos o preparación de documentación. Lo que la compañía pretende evitar es que el sistema se perciba como “sustituto” de la responsabilidad profesional en casos concretos.
¿Qué supone en la práctica?
- General sí; caso concreto, con cautelas. Se mantiene el uso para aprendizaje y orientación general, pero se restringe pedir instrucciones aplicadas a hechos personales sin intervención profesional.
- Impacto directo en el ámbito jurídico. Para la abogacía, el mensaje es claro: la IA puede apoyar (resúmenes, borradores, checklist, análisis de estructura), pero la revisión y validación debe recaer en una persona colegiada cuando el resultado sea un consejo profesional.
- Finanzas también entra en el perímetro. En paralelo, OpenAI prohíbe automatizar ciertas acciones sensibles (por ejemplo, automatizar operaciones de inversión) y refuerza la idea de supervisión humana en dominios de alto impacto.
- No a decisiones “críticas” sin revisión humana. Las políticas incluyen la prohibición de automatizar decisiones de alto riesgo en ámbitos como crédito, seguros, vivienda, empleo (entre otros) sin revisión humana, precisamente por el potencial de daño y la exigencia de garantías.
- Más que ética: gestión de riesgo y expectativas. Varias lecturas públicas de la actualización destacan que el objetivo es acotar usos indebidos y responsabilidades, evitando que terceros presenten la salida del modelo como si fuera criterio profesional habilitado. Business Insider+1
En conjunto, el cambio apunta a un escenario “híbrido”: la tecnología gana peso como herramienta de apoyo, pero la responsabilidad (y la trazabilidad del criterio) sigue anclada en el profesional.
FUENTES:
[2] https://www.businessinsider.com/openai-can-still-answer-your-health-questions-2025-11