Resumo de É possível construir inteligência artificial sem perder o controle?
Procurando pelo vídeo?
Nós temos o resumo! Obtenha os insights principais em apenas 10 minutos.

Recomendação
Filmes como O Exterminador do Futuro e Matrix desensibilizaram não despertam nas pessoas uma resposta adequada para uma ameaça real: A era da IA superinteligente está se aproximando, e o seu surgimento pode não ser um bom sinal para a humanidade. O filósofo e neurocientista Sam Harris fornece ironicamente um choque de realidade necessário e sublinha como a humanidade está despreparada para enfrentar tal desafio. A getAbstract recomenda a previsão apocalíptica de Harris para programadores e para quem quer um vislumbre de um futuro distópico.
Neste resumo, você vai aprender:
- Por que, exceto se ocorrer uma catástrofe global, o surgimento da IA superinteligente é inevitável;
- Como uma IA sofisticada ameaça a humanidade; e
- Por que a sociedade deve começar a levar esta questão mais a sério.
Sobre o Palestrante
O filósofo e neurocientista Sam Harris é autor de O Fim da Fé e A Paisagem Moral.
Resumo
Saiba os pontos essenciais deste vídeo em 10 minutos.
Comente sobre este resumo
Mais deste tópico
Os clientes que leem esse resumo também leem
-
Vídeo
Nick Bostrom
TED, 2015
(8)
-
-
-