El 18 % de los expertos entrevistados en un nuevo libro del periodista británico Tom Chivers temen que el futuro de la humanidad peligre a partir de 2075 con la llegada de la superinteligencia artificial.
Un nuevo libro escrito por el periodista británico Tom Chivers analiza el problema que puede suponer el desarrollo de la inteligencia artificial (IA) para el futuro de la existencia de la humanidad. El autor de "La IA no te odia" —colaborador de medios como Buzzfeed o Telegraph— plantea esta cuestión basándose en los postulados del llamado movimiento 'racionalista', una comunidad de especialistas en IA que se dedica a la seguridad en este campo.
Entre los miembros de este grupo entrevistados por Chivers figuran distintos ejecutivos de Silicon Valley, ingenieros, economistas y destacados académicos. Las ideas del investigador estadounidense Eliezer Yudkowsky —cuyas reflexiones sobre el potencial y los peligros de la IA pusieron en los 2000 la base del movimiento 'racionalista'— son centrales en el libro, y hasta el título de la obra tiene su origen en una cita suya: "La inteligencia artificial ni te odia ni te ama, pero estás hecho de átomos que puede usar para otra cosa".
Yudkowsky se ocupa actualmente del área de la inteligencia artificial amistosa en el Instituto de Investigación de la Inteligencia de las Máquinas (MIRI, por sus siglas en inglés) que él mismo fundó en Berkeley (California, EE.UU.). A pesar de no que no concedió entrevista para el libro, sí "accedió a responder preguntas técnicas por correo electrónico".
¿Por qué preocuparse?
En su trabajo, Chivers plantea la pregunta de qué pasará si las computadoras alcanzan el nivel de "poder hacer todas las tareas mentales que podemos" realizar los humanos. La preocupación principal no es que las máquinas alcancen pronto un nivel de inteligencia equiparable a la humana, sino que, al llegar a ese punto, rápidamente adquieran superinteligencia, superándonos así en todos los campos.
Como ejemplo, el autor pone el programa AlphaGo, desarrollado por DeepMind y propiedad de Alphabet (empresa matriz de Google), que fue desarrollado para jugar al go, un juego de mesa estratégico chino. En solo un año, el programa dio el salto desde tener un nivel amateur hasta vencer al mejor jugador del mundo. Luego, una versión mejorada, AlphaGo Zero, logró lo mismo pocos días después de entrar en funcionamiento.
Por motivos como este, los racionalistas están haciendo sonar las señales de alarma. El libro recoge una encuesta a alrededor de 150 investigadores de IA que apunta que hay un 90 % de posibilidades de que las máquinas alcancen el nivel humano de inteligencia en 2075. El mismo sondeo también reveló que el 18% de los encuestados cree que, llegados a ese punto, se producirá la extinción humana.
Para comprender por qué tantos especialistas en el tema creen que "objetivos que parecen completamente inocuos podrían representar una amenaza existencial", Chivers da ejemplos reales, como el de un software programado para ganar un torneo 'online' de ceros y cruces (también conocido como tres en línea). Este aprendió rápidamente a mover miles de millones de cuadrados fuera del tablero, lo que provocó el bloqueo del algoritmo contrario e hizo que la IA ganara el juego de forma predeterminada.
Otro caso ocurrió con un programa que estaba destinado a replicar un conjunto de archivos de texto de la forma más fiel posible al original: la IA resolvió el problema eliminando esos archivos y convirtiéndolos en hojas en blanco para obtener así una puntuación perfecta a su tarea.
Es extremadamente difícil predecir qué puede salir mal en el desarrollo de la IA, por lo que los partidarios de Yudkowsky, así como otras organizaciones como OpenAI, de Elon Musk, o el Centro para el Estudio del Riesgo Existencial en Cambridge (Reino Unido), tratan de mitigar los posibles peligros desarrollando la seguridad de la IA. Para ello, trabajan en la capacitación de ingenieros y programadores y financiab la investigación del área de la llamada singularidad, un proceso en el que "los sistemas inteligentes comienzan a mejorarse a sí mismos lo suficientemente rápido" como para que "nuestras formas habituales de predecir el futuro [...] se derriben".
Publicar un comentario
Agregue aquí su comentario...