• Principal
  • Otro
  • La IA se está acercando inquietantemente a los datos de Star Trek: TNG ahora que sabe si puedes confiar en ella o no

La IA se está acercando inquietantemente a los datos de Star Trek: TNG ahora que sabe si puedes confiar en ella o no

¿Qué Película Ver?
 
>

Puede que no sea tan consciente de sí mismo como los datos de Star Trek: TNG (todavía), especialmente porque ese droide podía cuidar mejor a un gato que a algunos humanos, pero la IA ha llegado al punto de darse cuenta de que no es confiable.



Lo que ahora se llama regresión evidencial profunda ha mejorado la autoconciencia de la IA. Sabrá cuándo tiene una mayor probabilidad de cometer un error en la predicción, basándose en la evaluación de la confiabilidad de los datos que está mirando. Es más probable que las predicciones futuras funcionen si están influenciadas por datos más completos y precisos. Lo contrario significa que las cosas probablemente saldrán mal, y la IA puede sentir eso. Cuando estima su certeza sobre algo, esa certeza subirá y bajará dependiendo de los datos que reciba. La IA puede entonces determinar el riesgo o la incertidumbre con una precisión del 99%.

Parece que incluso Picard estaría impresionado, pero espera. Solo hay un inconveniente de los robots conscientes de sí mismos, y es que el 99% no es una certeza total, sin importar lo cerca que esté. Estar solo en un 1% podría significar un desastre en escenarios potencialmente mortales, desde conducir un automóvil autónomo hasta realizar una cirugía. De miedo.







Si bien la [regresión probatoria profunda] presenta varias ventajas sobre los enfoques existentes, sus principales limitaciones son ajustar el coeficiente de regularización y eliminar de manera efectiva la evidencia no engañosa al calibrar la incertidumbre, dijo el MIT Ph.D. estudiante Alexander Amini , quien dirigió un estudio que presentará en la conferencia NeurIPS del próximo mes.

Lo que Amini y su equipo han logrado hacer sigue siendo bastante notable. Antes de esto, usar IA para estimar la incertidumbre no solo era costoso, sino demasiado lento para las decisiones que deben tomarse en fracciones de segundo. Las redes neuronales pueden ser tan inmensas que pueden tardar una eternidad en calcular una respuesta, y la espera para conocer el nivel de confianza sería demasiado larga para siquiera molestarse en poner el esfuerzo. No tendría sentido usar algo como esto en un auto. -conducir coche que necesita saber qué giro hacer de inmediato. El proceso se ha adelantado por regresión evidencial profunda. Esta red neuronal solo necesita ejecutarse una vez para averiguar el nivel de incertidumbre.

Adivinando la incertidumbre en un modelo que la IA ya ha aprendido, puede decirnos aproximadamente qué tan amplio es el margen de error. La IA usa evidencia para respaldar su estimación. Esta evidencia incluye cualquier incertidumbre que esté al acecho en los datos que acaba de analizar la red neuronal o su autoconciencia de cuán seguro está en su propia decisión. Amini y su equipo probaron el método de regresión evidencial profunda entrenando a la IA para estimar la profundidad de cada píxel en una imagen. La percepción de profundidad podría significar la vida o la muerte en una cirugía que necesita extirpar un tumor que puede estar ubicado profundamente dentro del cuerpo y difícil de ver de otra manera.

La IA fue mayormente precisa, pero se estropeó una vez alimentado con imágenes que eran más difíciles de recordar. Al menos había una cosa en la que era consistente: cuando se enfrentaba a imágenes que le daban dificultad, informaba al equipo sobre su incertidumbre sin falta. Su determinado margen de error puede al menos enseñar a los investigadores cómo mejorar ese modelo. Su capacidad para reconocer imágenes que han sido retocadas con Photoshop también abre la posibilidad de reconocer deepfakes. Los seres humanos solo necesitan ser conscientes de que este cerebro robot todavía es falible, y no podemos confiar en él más de lo que él puede confiar en sí mismo.

Creemos que se justifica una mayor investigación para descubrir formas alternativas de eliminar pruebas no engañosas, Amini dijo .

Es decir, la IA que puede pensar usando regresión evidencial profunda es bastante confiable siempre que el resultado de una respuesta incorrecta no sea letal.