Resumo de É possível construir inteligência artificial sem perder o controle?

Procurando pelo vídeo?
Nós temos o resumo! Obtenha os insights principais em apenas 10 minutos.

É possível construir inteligência artificial sem perder o controle? resumo
Comece hoje:
ou conheça os nossos planos

Avaliação

8

Qualidades

  • Inovativo
  • Polêmico
  • Revelador

Recomendação

Filmes como O Exterminador do Futuro e Matrix desensibilizaram não despertam nas pessoas uma resposta adequada para uma ameaça real: A era da IA superinteligente está se aproximando, e o seu surgimento pode não ser um bom sinal para a humanidade. O filósofo e neurocientista Sam Harris fornece ironicamente um choque de realidade necessário e sublinha como a humanidade está despreparada para enfrentar tal desafio. A getAbstract recomenda a previsão apocalíptica de Harris para programadores e para quem quer um vislumbre de um futuro distópico.

Sobre o Palestrante

O filósofo e neurocientista Sam Harris é autor de O Fim da Fé e A Paisagem Moral.

 

Resumo

O surgimento da IA superinteligente é iminente, mas a maioria das pessoas ignora a gravidade da crise. Na ficção científica, a IA se torna uma ameaça quando os robôs se rebelam. Na realidade, os problemas se materializarão quando os objetivos da IA divergirem da humanidade. Nesse ponto, a IA poderia tratar os seres humanos como os seres humanos tratam as formigas; As máquinas não odiarão os humanos, mas poderão eliminá-los. Se esse cenário parece estranho, considere três fatores: Primeiro, “inteligência é uma questão de processamento de informações em sistemas físicos”. A inteligência limitada está presente ...


Mais deste tópico

Os clientes que leem esse resumo também leem

Enquadrando a IA no Mundo dos Negócios
8
Três Princípios para a Criação de uma IA Mais Segura
8
O Futuro Pertence aos Humanos?
9
O Facebook e o Futuro
8
Conheça o líder com Jack Ma
8
Uma Falha da Imaginação
7

Canais Relacionados

Comente sobre este resumo