Cientistas temem que avanços recentes em inteligência artificial possam trazer problemas catastróficos para o futuro da humanidade.
De acordo com os especialistas, o problema não é a inteligência "competitiva-humana", mas o que acontece depois que a inteligência artificial ultrapassa a inteligência humana. Segundo eles, os limiares importantes podem não ser óbvios e não é possível calcular com antecedência o que acontece quando um laboratório de pesquisa ultrapassa linhas críticas sem perceber.
Os cientistas aprofundados nessa área temem que o resultado mais provável de construir uma IA superhumanamente inteligente, em qualquer coisa remotamente semelhante às circunstâncias atuais, é literalmente todos na Terra morrerem. Eles explicam que, sem precisão e preparação, o resultado mais provável é que a IA não faça o que queremos e também não se importe conosco nem com a vida sentinte em geral.
O grupo de cientistas pede uma moratória de 6 meses para avaliar as consequências da pesquisa atual e desenvolver estratégias para minimizar os riscos da inteligência artificial super-humana. Eles alertam que não estamos prontos para lidar com isso e não sabemos como imbüir cuidados em uma IA "super-humana".
As metáforas válidas incluem "uma criança de 10 anos tentando jogar xadrez contra Stockfish 15", "o século 11 tentando lutar contra o século 21" e "Australopithecus tentando lutar contra Homo sapiens".
Inscreva-se em nosso novo canal do YouTube ACESSE AQUI!
Para receber as notícias gratuitamente e em tempo real participe do nosso super grupo no WhatsApp, clicando aqui!
Ou participe do nosso grupo no Telegram clicando aqui!
Ouça AQUI a web rádio do Blog do Juares!
Siga o Blog do Juares no Google News e recebe notificações das últimas notícias em seu celular, acessando aqui!