Resumen de ¿Podemos construir inteligencia artificial sin perder el control sobre ella?

TED Conferences LLC, más...

Ver video

¿Podemos construir inteligencia artificial sin perder el control sobre ella?   resumen
Es hora de que la humanidad empiece a tomar más en serio la “muerte por ciencia ficción”.

Rating

8 Valoración General

8 Aplicabilidad

8 Innovación

8 Estilo

Reseña

Películas como Terminator y Matrix han desensibilizado a las personas respecto a una amenaza real: la era de la inteligencia artificial súperinteligente se acerca, y su surgimiento podría no ser un buen presagio para la sociedad. Sam Harris, filósofo y neurocientífico ofrece una revisión de la realidad y subraya lo poco preparada que está la humanidad para enfrentarse a ese reto. getAbstract recomienda la predicción de Harris a los programadores de cómputo encargados de desarrollar IA responsable y a todo aquel que quiera un vistazo a un futuro distópico.

En este resumen usted aprenderá

  • Por qué, salvo que ocurra alguna catástrofe global, el surgimiento de la inteligencia artificial (IA) súperinteligente es inevitable
  • Cómo la IA sofisticada amenaza a la humanidad
  • Por qué la sociedad debe empezar a tomar este asunto más en serio
 

Resumen

El surgimiento de la inteligencia artificial súperinteligente es inminente, pero la mayoría de las personas ignora la gravedad de la crisis. Los problemas se materializarán cuando los objetivos de la IA diverjan de los de la humanidad; las máquinas no odiarán a las personas, pero podrían derrotar a ...
Conozca los puntos clave de este vídeo en menos de 10 minutos. Conozca más sobre nuestros productos o entre

Acerca del orador

Sam Harris, filósofo y neurocientífico, es autor de The End of Faith y The Moral Landscape.


Comentarios sobre este resumen

Más sobre esto

Los clientes que leyeron este resumen también leyeron

Más por categoría