O que é um caminho plausível (se houver) para que a IA se torne uma ameaça para a humanidade?
Não penso que a IA se tornará uma ameaça existencial para a humanidade.
Não estou dizendo que é impossível, mas teríamos que ser muito estúpidos para deixar isso acontecer.
Outros afirmaram que teríamos que ser muito espertos para evitar que isso acontecesse, mas não acho que seja verdade.
Se formos suficientemente espertos para construir uma máquina com inteligência super-humana, provavelmente não seremos suficientemente estúpidos para lhes dar um poder infinito para destruir a humanidade.
Também, existe uma falácia completa devido ao facto de a nossa única exposição à inteligência ser através de outros humanos. Não há absolutamente nenhuma razão para que máquinas inteligentes queiram sequer dominar o mundo e/ou ameaçar a humanidade. A vontade de dominar é muito humana (e apenas para certos humanos).
P>Even em humanos, a inteligência não está correlacionada com um desejo de poder. Na verdade, os eventos atuais nos dizem que a sede de poder pode ser excessiva (e um pouco bem sucedida) em pessoas com inteligência limitada.
Como gerente de um laboratório de pesquisa da indústria, eu sou o chefe de muitas pessoas que são muito mais espertas do que eu (eu vejo como um grande objetivo do meu trabalho contratar pessoas que são mais espertas do que eu).
Muitas das coisas ruins que os humanos fazem uns com os outros são muito específicas da natureza humana. Comportamentos como tornar-se violento quando nos sentimos ameaçados, ter ciúmes, querer acesso exclusivo a recursos, preferir nossos parentes mais próximos a estranhos, etc. foram construídos pela evolução para a sobrevivência da espécie. Máquinas inteligentes não terão estes comportamentos básicos, a menos que construamos explicitamente estes comportamentos nelas. Porque é que nós?
Também, se alguém construir deliberadamente uma IA perigosa e geralmente inteligente, outros serão capazes de construir uma segunda IA, mais estreita, cujo único propósito será destruir a primeira. Se ambas as IA tiverem acesso à mesma quantidade de recursos informáticos, a segunda irá ganhar, tal como um tigre, um tubarão ou um vírus pode matar um humano de inteligência superior.