Por qué los científicos dicen que las IA superinteligentes serán imposibles de controlar

 Es imposible calcular si una inteligencia artificial superinteligente dañará a los humanos, pero tratar de contenerla probablemente no sea posible.


  El debate intelectual en torno al potencial constructivo, o destructivo, de una IA superinteligente ha estado ocurriendo en el círculo científico durante un tiempo, pero un estudio colaborativo de un equipo de expertos internacionales ha determinado que controlar tal entidad sería lo próximo imposible. La literatura y el cine de ciencia ficción están llenos de representaciones de una IA que puede ser más astuta que los seres humanos y utilizar su inmensa capacidad de cálculo para realizar tareas que actualmente están fuera del alcance de la humanidad. Muchos expertos predicen la llegada de tal IA. Además, crecen los temores sobre un escenario hipotético en el que se vuelve deshonesto.

  Nick Bostrom, un filósofo de la Universidad de Oxford y una figura destacada en el debate, definió la IA superinteligente como una entidad que es más inteligente que las mentes más brillantes del planeta y puede ser más astuta que ellas en dominios como la creatividad científica, la sabiduría general y incluso habilidades sociales. La humanidad ya está utilizando la IA para una amplia gama de tareas, como predecir los efectos del cambio climático, estudiar el complejo comportamiento del plegamiento de proteínas, evaluar qué tan feliz es un gato y mucho más. Pero la pregunta que desconcierta a muchas mentes es si una IA súper avanzada seguirá siendo leal a sus creadores humanos o si se volverá demasiado poderosa para contenerla.

  Un grupo de científicos provenientes de institutos como el Instituto Max-Planck para el Desarrollo Humano, el Instituto de Redes ORGIMDEA de Madrid, la Universidad de California en San Diego y la Universidad de Chile, entre otros, hicieron una lluvia de ideas aplicando un montón de teoremas. Concluyeron que una IA superinteligente será imposible de contener por completo y que el tema de la contención es en sí mismo incomputable. El grupo tuvo en cuenta los avances recientes en el aprendizaje automático, las capacidades computacionales y los algoritmos autoconscientes para determinar el potencial de una IA superinteligente. Luego lo probaron con algunos teoremas establecidos para determinar si contenerlo sería una buena idea, si es que es posible. Para empezar, las famosas Tres Leyes de la Robótica postuladas por Isaac Asimov no son aplicables para una entidad como una IA superinteligente porque sirve principalmente como principio rector para los sistemas que toman 'decisiones autónomas' en nombre de los seres humanos a un nivel muy controlado. grado.


  Otro aspecto clave es la naturaleza fundamental de dicha IA y cómo percibe y procesa las cosas de manera diferente (y en una escala variable) en comparación con los seres humanos. Una IA superinteligente tiene múltiples facetas y, por lo tanto, es capaz de utilizar recursos que son potencialmente incomprensibles para los humanos para lograr un objetivo. Ese objetivo puede ser asegurar su propia supervivencia mediante el uso de agentes externos y sin necesidad de supervisión humana. Por lo tanto, la forma en que puede utilizar los recursos disponibles para sus propios beneficios está más allá de la comprensión humana. Un ejemplo relacionado es el bot Tay AI de Microsoft, que comenzó a mostrar todo tipo de comportamiento problemático poco después de su lanzamiento en Twitter. Similar fue el caso de la IA de Delphi que tenía la tarea de dar consejos éticos, pero en su lugar comenzó a repartir consejos racistas y asesinos.

  Pero hay un problema inherente con la contención en sí. Si una IA superinteligente está enjaulada, significaría que su potencial para lograr objetivos sería limitado, lo que cuestiona todo el propósito de su creación. E incluso si los científicos optan por un sistema de incentivos para cada logro, la IA superinteligente podría volverse indigna de confianza para los humanos y percibirlos como algo por debajo de su nivel de comprensión de qué son las metas y los logros. Y luego también está la preocupación por una IA superinteligente que es consciente de que su estado encarcelado es mucho más peligrosa. Otra limitación considerable es cómo decidir si se debe contener o no una IA superinteligente. No existen mecanismos de prueba concretos que puedan confirmar que una IA superinteligente sea segura para operar libremente porque podría muy bien fingir sus ambiciones y capacidades durante la evaluación. 

Comentarios