Resumo de É possível construir inteligência artificial sem perder o controle?

Procurando pelo vídeo?
Nós temos o resumo! Obtenha os insights principais em apenas 10 minutos.

É possível construir inteligência artificial sem perder o controle? resumo
Comece hoje:
ou conheça os nossos planos

Avaliação

8 Geral

8 Importância

8 Inovação

8 Estilo

Recomendação

Filmes como O Exterminador do Futuro e Matrix desensibilizaram não despertam nas pessoas uma resposta adequada para uma ameaça real: A era da IA superinteligente está se aproximando, e o seu surgimento pode não ser um bom sinal para a humanidade. O filósofo e neurocientista Sam Harris fornece ironicamente um choque de realidade necessário e sublinha como a humanidade está despreparada para enfrentar tal desafio. A getAbstract recomenda a previsão apocalíptica de Harris para programadores e para quem quer um vislumbre de um futuro distópico.

Neste resumo, você vai aprender:

  • Por que, exceto se ocorrer uma catástrofe global, o surgimento da IA superinteligente é inevitável;
  • Como uma IA sofisticada ameaça a humanidade; e
  • Por que a sociedade deve começar a levar esta questão mais a sério.
 

Sobre o Palestrante

O filósofo e neurocientista Sam Harris é autor de O Fim da Fé e A Paisagem Moral.

 

Resumo

O surgimento da IA superinteligente é iminente, mas a maioria das pessoas ignora a gravidade da crise. Na ficção científica, a IA se torna uma ameaça quando os robôs se rebelam. Na realidade, os problemas se materializarão quando os objetivos da IA divergirem da humanidade. Nesse ponto, a IA poderia...

Saiba os pontos essenciais deste vídeo em 10 minutos.

Para você

Encontre o melhor plano de assinatura para você.

Para sua empresa

Construa uma cultura de aprendizagem contínua.

 ou faça o login

Comente sobre este resumo

Mais deste tópico

Os clientes que leem esse resumo também leem

Mais por categoria