Ir al contenido

Superintelligence: Paths, Dangers, Strategies

De Wikipedia, la enciclopedia libre
Paths, Dangers, Strategies
de Nick Bostrom
Subgénero Filosofía, Divulgación científica
Tema(s) Inteligencia artificial
Edición original en inglés
Título original Superintelligence:
Paths, Dangers, Strategies
Editorial Oxford University Press[1]
País Reino Unido, Estados Unidos
Fecha de publicación 3 de julio de 2014 (Reino Unido)
1 de septiembre de 2014 (Estados Unidos)
Serie
Paths, Dangers, Strategies

Superintelligence: Paths, Dangers, Strategies es un libro escrito por el filósofo Nick Bostrom en 2014. Explora las maneras en las que se podría crear la superinteligencia, y cuáles podrían ser sus características y motivaciones.[2]​ Sostiene que, de crearse, la superinteligencia sería difícil de controlar y podría apoderarse del mundo para lograr sus objetivos. El libro también muestra estrategias para ayudar a crear superinteligencias cuyos objetivos beneficien a la humanidad.[3]​ Fue particularmente influyente por suscitar preocupaciones acerca del riesgo existencial de la inteligencia artificial.[4]

Sinopsis

[editar]

Se desconoce si la inteligencia artificial a nivel humano llegará en cuestión de unos años o de varios siglos. Independientemente de ello, una vez que lo haga, lo más seguro es que rápidamente se desarrolle un sistema “superinteligente” que supere con creces el rendimiento cognitivo de los seres humanos en prácticamente todos los ámbitos de interés. Una superinteligencia de esta escala sería muy difícil de controlar.

Aunque los objetivos de las superinteligencias podrían variar enormemente, una superinteligencia funcional desarrollará como subobjetivos naturales: "objetivos instrumentales" como la autoconservación y la integridad del contenido de sus objetivos, la mejora cognitiva y la adquisición de recursos. Por ejemplo, un agente cuyo único objetivo es el de resolver la hipótesis de Riemann (una famosa conjetura matemática aun sin resolver) podría plantearse y seguir el objetivo de transformar a toda la Tierra en computronio (un material hipotético optimizado para la computación) para asistir con el cálculo. La superinteligencia se resistiría de forma proactiva a cualquier intento externo de apagarla o de evitar que consiga su subobjetivo. Para prevenir tal catástrofe existencial, es necesario resolver el "problema de control de la IA" antes de que llegue la primera superinteligencia. La solución podría consistir en asignar a la superinteligencia objetivos compatibles con la supervivencia y el bienestar humano. Resolver el problema del control es sorprendentemente difícil debido a que la mayoría de los objetivos conducen a consecuencias imprevistas e indeseables cuando se traducen a código implementable en una máquina.

El búho en la cubierta del libro alude a una analogía a la que Bostrom se refiere como "La fábula inacabada de los gorriones".[5]​ Un grupo de gorriones decide buscar a una cría de búho para criarla como su sirviente.[6]​ Imaginan “lo fácil que sería la vida” si tuviesen un búho que les ayudase a construir sus nidos, a defenderse y a conseguir una vida de ocio. Los gorriones comienzan la difícil búsqueda de un huevo de búho; únicamente “Scronkfinkle”, un gorrión tuerto de temperamento inquieto, sugiere pensar en la complicada pregunta de cómo domar al búho antes de incorporarlo al grupo. El resto de gorriones objetan; la búsqueda de un huevo de búho es suficientemente difícil por sí misma: “¿Por qué no conseguir el búho primero y luego aclarar el resto de detalles?” Bostrom sostiene que “no se sabe cómo termina la historia”, pero dedica su libro a Scronkfinkle.[5][4]

Recibimiento

[editar]

El libro quedó decimoséptimo en la lista de los libros de ciencia más vendidos de The New York Times de agosto de 2014.[7]​ En ese mismo mes, el magnate Elon Musk saltó a los titulares al coincidir con el libro en que la inteligencia artificial es potencialmente más peligrosa que las armas nucleares.[8][9][10]​ El trabajo de Bostrom en el campo de la superinteligencia también ha influido en la preocupación de Bill Gates acerca de los riesgos existenciales a los que se enfrentará la humanidad durante el próximo siglo.[11][12]​ En marzo de 2015, durante una entrevista al CEO de Baidu, Robin Li, Bill Gates dijo que “recomendaría encarecidamente” leer Superintelligence.[13]​ Según el New Yorker, los filósofos Peter Singer y Derek Parfit lo han recibido como “una obra de importancia”.[4]​ En 2015, Sam Altman escribió que el libro era el mejor recurso que había leído acerca de los riesgos de la IA.[14]

El editor científico de Financial Times consideró que la escritura de Bostrom “ocasionalmente se desvía hacia un lenguaje opaco que traiciona su formación como profesor de filosofía” pero que demuestra con convicción que el riesgo de la superinteligencia es lo suficientemente grande como para que la sociedad deba de empezar a pensar en maneras de inculcar valores positivos en la futura inteligencia de las máquinas.[15]​ Una reseña en The Guardian señaló que “hasta las máquinas más sofisticadas creadas a día de hoy son solo inteligentes en un sentido limitado” y que “las expectativas de que la IA pronto superará la inteligencia humana aparecieron por primera vez en los años 60”. Sin embargo, la reseña coincide con Bostrom al decir que “no sería aconsejable descartar la posibilidad por completo”.[3]

Algunos de los compañeros de Bostrom sugieren que la guerra nuclear representa una mayor amenaza a la humanidad que la superinteligencia, al igual que la posible futura armamentización de la nanotecnología y biotecnología.[3]The Economist afirmó que Bostrom tuvo que dedicar gran parte del libro a hablar sobre especulaciones construidas sobre posibles conjeturas… pero que, a pesar de ello, el libro no deja de ser valioso. Las implicaciones de introducir una segunda especie inteligente en la Tierra son lo suficientemente trascendentales como para merecer una reflexión profunda, incluso si la posibilidad parece remota."[2]Ronald Bailey escribió en la revista libertaria Reason que Bostrom acierta al decir que resolver el problema del control de la IA es la “tarea esencial de nuestra era”.[16]​ Según Tom Chivers de The Daily Telegraph, el libro es difícil de leer pero gratificante.[6]​ Un crítico de Journal of Experimental & Theoretical Artificial Intelligence se opuso a otros al afirmar que el “estilo de escritura es claro”, y elogió al libro por evitar “jerga demasiado técnica”.[17]​ Otro crítico de Philosophy consideró a Superintelligence más realista que The Singularity Is Near de Ray Kurzweil.[18]

Véase también

[editar]

Referencias

[editar]
  1. «Superintelligent Swede snapped up by OUP». The Bookseller. 21 de noviembre de 2013. 
  2. a b «Clever cogs». The Economist. 9 de agosto de 2014. Consultado el 9 de agosto de 2014. 
  3. a b c Henderson, Caspar (17 de julio de 2014). «Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review». The Guardian. Consultado el 30 de julio de 2014. 
  4. a b c Khatchadourian, Raffi (2015). «The Doomsday Invention». The New Yorker (en inglés). Consultado el 29 de marzo de 2020. 
  5. a b Adams, Tim (12 de junio de 2016). «Nick Bostrom: 'We are like small children playing with a bomb'». The Observer. Consultado el 29 de marzo de 2020. 
  6. a b Chivers, Tom (10 de agosto de 2014). «Superintelligence by Nick Bostrom, review: 'a hard read'». The Telegraph. Consultado el 16 de agosto de 2014. 
  7. «Best Selling Science Books». The New York Times. 8 de agosto de 2014. Consultado el 9 de octubre de 2014. 
  8. Dean, James (5 de agosto de 2014). «Artificial intelligence 'may wipe out the human race'». The Times. Consultado el 5 de agosto de 2014. 
  9. Augenbraun, Eliene (4 de agosto de 2014). «Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes"». CBC News. Consultado el 2014-08. 
  10. Bratton, Benjamin H. (23 de febrero de 2015). «Outing A.I.: Beyond the Turing Test». The New York Times. Consultado el 4 de marzo de 2015. 
  11. Mack, Eric (28 de enero de 2015). «Bill Gates Says You Should Worry About Artificial Intelligence». Forbes. Consultado el 19 de febrero de 2015. 
  12. Lumby, Andrew (28 de enero de 2015). «Bill Gates Is Worried About the Rise of the Machines». The Fiscal Times. Consultado el 19 de febrero de 2015. 
  13. Kaiser Kuo (31 de marzo de 2015). «Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015». YouTube. Consultado el 8 de abril de 2015. 
  14. Black, Melia Russell, Julia. «He's played chess with Peter Thiel, sparred with Elon Musk and once, supposedly, stopped a plane crash: Inside Sam Altman's world, where truth is stranger than fiction». Business Insider (en inglés). Consultado el 15 de agosto de 2023. 
  15. Cookson, Clive (13 de julio de 2014). «Superintelligence: Paths, Dangers, Strategies, by Nick Bostrom». The Financial Times. Archivado desde el original el 6 de agosto de 2014. Consultado el 30 de julio de 2014. 
  16. Bailey, Ronald (12 de septiembre de 2014). «Will Superintelligent Machines Destroy Humanity?». Reason. Consultado el 16 de septiembre de 2014. 
  17. Thomas, Joel (2015-07). In defense of philosophy: a review of Nick Bostrom 28 (6). Journal of Experimental & Theoretical Artificial Intelligence. pp. 1089-1094. doi:10.1080/0952813X.2015.1055829. 
  18. Richmond, Sheldon (8 de julio de 2015). Superintelligence: Paths, Dangers, Strategies. 91 (1). Philosophy. pp. 125-130. S2CID 171005535. doi:10.1017/S0031819115000340.