yandex pixel
distopía web oficial distopía web oficial menu icon
Cuándo confiar en un modelo de IA
Cuándo confiar en un modelo de IA Cuándo confiar en un modelo de IA

Cuándo confiar en un modelo de IA


Nuevo enfoque que puede mejorar modelos de aprendizaje

facebook twitter whatsapp mail

Cuándo confiar en un modelo de IA


Debido a que los modelos de aprendizaje automático pueden dar predicciones falsas, los investigadores a menudo los equipan con la capacidad de decirle al usuario qué tan seguro está de una determinada decisión. Esto es especialmente importante en entornos de alto riesgo, como cuando se utilizan modelos para ayudar a identificar enfermedades en imágenes médicas o filtrar solicitudes de empleo.

Pero las cuantificaciones de la incertidumbre de un modelo solamente son útiles si son precisas. Si un modelo dice que tiene un 49 por ciento de confianza en que una imagen médica muestra un derrame pleural, entonces el 49 por ciento de las veces el modelo debería tener razón.

Los investigadores del MIT han introducido un nuevo enfoque que puede mejorar las estimaciones de incertidumbre en modelos de aprendizaje automático. Su método no únicamente genera estimaciones de incertidumbre más precisas que otras técnicas, sino que lo hace de manera más eficiente.

Además, debido a que la técnica es escalable, se puede aplicar a enormes modelos de aprendizaje profundo que se implementan cada vez más en la atención médica y otras situaciones críticas para la seguridad.

Esta técnica podría brindar a los usuarios finales, muchos de los cuales carecen de experiencia en aprendizaje automático, mejor información que pueden usar para determinar si deben confiar en las predicciones de un modelo o si el modelo debe implementarse para una tarea particular.

“Es fácil ver que estos modelos funcionan muy bien en escenarios en los que son muy buenos y luego suponer que serán igual de buenos en otros escenarios. Esto hace que sea especialmente importante impulsar este tipo de trabajo que busca calibrar mejor la incertidumbre de estos modelos para asegurarse de que se alineen con las nociones humanas de incertidumbre”, dice el autor principal Nathan Ng, estudiante de posgrado de la Universidad de Toronto que es Estudiante visitante en el MIT.

Ng escribió el artículo con Roger Grosse, profesor asistente de informática en la Universidad de Toronto; y el autor principal Marzyeh Ghassemi, profesor asociado del Departamento de Ingeniería Eléctrica e Informática y miembro del Instituto de Ciencias de la Ingeniería Médica y del Laboratorio de Sistemas de Información y Decisión. La investigación se presentará en la Conferencia Internacional sobre Aprendizaje Automático.





Abren registro para la XVI Olimpiada de Biología

Abren registro para la XVI Olimpiada de Biología


Se convoca a los estudiantes de educación media superior



Leer más



Nacen elefantes de una especie en peligro de extinción

Nacen elefantes de una especie en peligro de extinción


Las crías de elefante son gemelas



Leer más
comodo cookies small Leer la Política de Privacidad