Cuándo confiar en un modelo de IA
Nuevo enfoque que puede mejorar modelos de aprendizaje
Debido a que los modelos de aprendizaje automático pueden dar predicciones falsas, los investigadores a menudo los equipan con la capacidad de decirle al usuario qué tan seguro está de una determinada decisión. Esto es especialmente importante en entornos de alto riesgo, como cuando se utilizan modelos para ayudar a identificar enfermedades en imágenes médicas o filtrar solicitudes de empleo.
Pero las cuantificaciones de la incertidumbre de un modelo solamente son útiles si son precisas. Si un modelo dice que tiene un 49 por ciento de confianza en que una imagen médica muestra un derrame pleural, entonces el 49 por ciento de las veces el modelo debería tener razón.
Los investigadores del MIT han introducido un nuevo enfoque que puede mejorar las estimaciones de incertidumbre en modelos de aprendizaje automático. Su método no únicamente genera estimaciones de incertidumbre más precisas que otras técnicas, sino que lo hace de manera más eficiente.
Además, debido a que la técnica es escalable, se puede aplicar a enormes modelos de aprendizaje profundo que se implementan cada vez más en la atención médica y otras situaciones críticas para la seguridad.
Esta técnica podría brindar a los usuarios finales, muchos de los cuales carecen de experiencia en aprendizaje automático, mejor información que pueden usar para determinar si deben confiar en las predicciones de un modelo o si el modelo debe implementarse para una tarea particular.
“Es fácil ver que estos modelos funcionan muy bien en escenarios en los que son muy buenos y luego suponer que serán igual de buenos en otros escenarios. Esto hace que sea especialmente importante impulsar este tipo de trabajo que busca calibrar mejor la incertidumbre de estos modelos para asegurarse de que se alineen con las nociones humanas de incertidumbre”, dice el autor principal Nathan Ng, estudiante de posgrado de la Universidad de Toronto que es Estudiante visitante en el MIT.
Ng escribió el artículo con Roger Grosse, profesor asistente de informática en la Universidad de Toronto; y el autor principal Marzyeh Ghassemi, profesor asociado del Departamento de Ingeniería Eléctrica e Informática y miembro del Instituto de Ciencias de la Ingeniería Médica y del Laboratorio de Sistemas de Información y Decisión. La investigación se presentará en la Conferencia Internacional sobre Aprendizaje Automático.
Celebra la Noche Internacional de Observación de la Luna
Todo listo en el Goddard de la NASA
Leer más
Eslovenia firma acuerdos Artemis
Rectrices para la exploración y el uso pacíficos del espacio exterior
Leer más