Resumen de Superinteligencia

Caminos, peligros, estrategias

Oxford UP, más...

Comprar el libro

Superinteligencia resumen de libro
El atractivo de la superinteligencia artificial puede convertirse en la ruina de la humanidad.

Rating

7 Valoración General

7 Importancia

7 Innovación

8 Estilo

Reseña

El futurista de la Universidad de Oxford, Nick Bostrom, argumenta que la IA promete un mundo más seguro, rico e inteligente, pero quizá la humanidad no sea capaz de sufragar la promesa de la IA. Cuanto más analiza Bostrom los preconceptos sobre la IA, más pensará usted que la humanidad carece de los recursos y de la imaginación para mudar de un mundo liderado por la gente, a un mundo en que algún elemento superinteligente podría amenazar o dominar. Bostrom explora las posibilidades de –y las preocupaciones relacionadas con– tal semifallo. Por ejemplo, pregunta qué pasaría si dicho elemento pudiera convertirse en un gobierno mundial con principios morales inciertos. Su libro es informado y denso, con múltiples puntos de reflexión. La postura “qué pasaría si” conduce su narrativa. Este es un tratado profundo diseñado para quien tiene hondo interés, no para el que tiene un interés leve. getAbstract recomienda la especulación rica y moralmente compleja de Bostrom a personas que elaboran políticas así como a futuristas, estudiantes, inversores y pensadores interesados en la alta tecnología.

En este resumen usted aprenderá

  • Cómo evoluciona el fenómeno conocido como inteligencia artificial (IA)
  • Qué pasos deben contemplar los científicos para usar y controlar la IA
  • Por qué la humanidad no está preparada para manejar esta tecnología
 

Resumen

La perspectiva de la superinteligencia
En Dartmouth College en 1956, un grupo de científicos trazó un nuevo curso para la humanidad: la noción de que las máquinas pueden replicar aspectos de la inteligencia humana. Su esfuerzo evolucionó a tropezones. Los programas basados en reglas o ...
Conozca los puntos clave de este libro en menos de 10 minutos. Conozca más sobre nuestros productos o entre

Sobre el autor

Nick Bostrom, profesor de la Universidad de Oxford, es director fundador del Instituto del Futuro de la Humanidad.


Comentarios sobre este resumen

  • Avatar
  • Avatar
    Ivan Ramirez hace 10 meses
    Lo mas increible es que somos la única raza que intenta volverse obsoleta a si misma. Asimov ya lo veia venir, de allí sus 3 leyes de la robotica.

Más sobre esto

Del mismo autor

Incluido en Paquetes de Conocimiento:

Los clientes que leyeron este resumen también leyeron

Más por categoría