O célebre físico britânico Stephen Hawking afirma que subestimar a ameaça representada pela inteligência artificial é um erro que poderá se tornar o maior na história da Humanidade.
"Todas as nossas realizações empalidecem perante o que nos espera nas próximas décadas. O êxito de criação da inteligência artificial será o acontecimento mais importante na história da Humanidade. Infelizmente, poderá ser também o último, se não aprendermos a evitar riscos", escreve o jornal britânico The Independent, citando Hawking.
Em seu artigo, concebido em co-autoria com professores norte-americanos, Hawking refere que no futuro pode ser que ninguém e nada sejam capazes de impedir as máquinas dotadas de uma inteligência sobre-humana de continuarem a se autoaperfeiçoar.
Se o efeito a curto prazo da inteligência artificial depende de quem a controla, o efeito a longo prazo já implica uma questão sobre a sua governabilidade em geral.
É difícil dizer quais poderiam ser as consequências da inteligência artificial para a Humanidade. Hawking acredita que são muito escassas as pesquisas sérias sobre estas questões.
De acordo com ele, cada um de nós deve se perguntar o que podemos fazer agora para evitar um pior cenário no futuro.
É difícil dizer quais poderiam ser as consequências da inteligência artificial para a Humanidade. Hawking acredita que são muito escassas as pesquisas sérias sobre estas questões.
De acordo com ele, cada um de nós deve se perguntar o que podemos fazer agora para evitar um pior cenário no futuro.
Phonte: Voz da Russia
Nenhum comentário:
Postar um comentário
Faça um blogueiro feliz, comente!!
Porém...
Todo comentário que possuir qualquer tipo de ofensa, ataque pessoal e palavrão, será excluído sem aviso prévio!