OpenAI actualizó su política de uso de ChatGPT, en el que prohíbe el uso de la popular herramienta para brindar asesoramiento médico, legal o de cualquier otra índole que requiera una licencia profesional.
Según el nuevo reglamento, los usuarios no podrán utilizar el ‘chatbot’ para tomar decisiones críticas en áreas sensibles como finanzas, educación, vivienda, migración o empleo sin supervisión humana. Además, incluyen las categorías de medicina, servicios gubernamentales esenciales y aplicación de la ley, entre otras.
A partir de la introducción de los nuevos cambios, ChatGPT solamente brindará información general sobre estos temas y recomendará consultarlos con un profesional adecuado.
«Las personas usan nuestros sistemas de nuevas maneras todos los días, y actualizamos nuestras reglas para asegurarnos de que no sean demasiado restrictivas o para proteger mejor a nuestros usuarios», explicó la compañía, al señalar que se busca que sus herramientas se utilicen de forma «segura y responsable».
¿Es ChatGPT más preciso que un doctor real?
Con la popularización del uso cotidiano de la inteligencia artificial, se ha vuelto cada vez más común su uso para consultas médicas rápidas, lo que lleva a preguntarse si su conocimiento es confiable en estas cuestiones.
Un estudio llevado a cabo por el Dr. Andrew S. Parsons, de la Universidad de Virginia, a principios de año revela que la precisión diagnóstica de ChatGPT fue del 76,3 %, al permitir diagnósticos ligeramente más rápidos.
A pesar de estos hallazgos, los investigadores advierten que la IA aún no puede reemplazar completamente a los médicos, ya que el razonamiento clínico involucra factores más complejos que un ‘chatbot’ no puede considerar totalmente.
Con información Agencias.-



