La inteligencia artificial puede ser perjudicial para su salud

Publicado:

Noticias populares

El ejercicio de la medicina exige una relación directa e inmediata entre el enfermo y su médico. No se puede sustituir con nada, ni siquiera con una “atención” teléfónica, como se hizo durante la pandemia. Un médico mínimamente digno debería rechazar ese tipo de intervenciones.

La atención médica tampoco se puede sustituir con la llamada “inteligencia artificial”, que es la última moda entre quienes quieren acabar con la sanidad pública. En Estados Unidos OpenAI ha puesto en marcha Whisper, una herramienta de transcripción destinada a trabajadores de la sanidad

Whisper es un sistema avanzado de reconocimiento automático de voz, diseñado específicamente para transcribir el lenguaje hablado en texto. Está integrado en algunas versiones de ChatGPT, así como en aplicaciones en la nube de Oracle y Microsoft.

La “inteligencia artificial” se trató de perfeccionar basándose en el lenguaje médico y se integró en una herramienta comercializada por la empresa Nabla. El objetivo era transcribir las interacciones de los médicos con sus pacientes con el pretexto de “ahorrar tiempo”.

Más de 30.000 médicos y 40 sistemas de salud lo utilizan. En total se han transcrito alrededor de 7 millones de visitas médicas, estima Nabla.

Como es lógico, Whisper no ha tardado en alucinar e inventar cosas que los pacientes nunca dijeron. Un equipo de investigadores que trabajan en diferentes universidades estadounidenses analizaron 13.000 extractos de audio de las transcripciones de Whisper. Identificaron nada menos que 187 alucinaciones, es decir informaciones falsas o inventadas.

El hecho de ocurran alucinaciones en un tratamiento es preocupante porque conduce a diagnósticos erróneos. Los investigadores concluyen que casi el 40 por ciento de las alucinaciones de Whisper eran perjudiciales para la salud del enfermo.

Además, es imposible comparar la transcripción generada por Nabla con la grabación original, porque la herramienta borra el audio por “razones de seguridad de los datos”.

Los portavoces de Nabla dijeron que eran conscientes de que Whisper podía tener alucinaciones y que estaban trabajando para resolver el problema. Por su parte, OpenAI reitera que su “inteligencia artificial” se debe usar de manera responsable: “Nuestras políticas incluyen recomendaciones contra su uso en áreas de alto riesgo”.

La pregunta es qué entiende una empresa informática por “alto riesgo” cuando se refiere a la salud de una persona.

(*) https://facctconference.org/static/papers24/facct24-111.pdf

Fuente: mpr21.info

DEJA UN COMENTARIO (si eres fascista, oportunista, revisionista, liberal, maleducado, trol o extraterrestre, no pierdas tiempo; tu mensaje no se publicará)

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Últimas noticias

¿Libertad de Expresión?

Desde el primer minuto hasta el minuto 12:25 mi análisis sobre la decisión de X de cercenar las opiniones distintas, diversas, disidentes a la corriente principal.

Le puede interesar: