Inteligência Artificial: como isso vai acabar?

Inteligência Artificial: como isso vai acabar?

A discussão não é nova e já foi explorada várias vezes, inclusive, como enredo de ficção científica. Uma máquina, programada para facilitar o trabalho do ser humano, supera a inteligência dos criadores e atua contra eles para dominar o mundo. É claro que autores e roteiristas de histórias como essa carregam no drama e, até mesmo, no terror para cativar leitores e espectadores, mas, por trás da ficção, há uma discussão relevante para os tempos que estamos vivendo.

A inteligência artificial é tema quase que diariamente de notícias e artigos. Alguns, além de informações sobre o desenvolvimento da tecnologia, também se arriscam a imaginar como ela deve impactar diferentes setores da sociedade daqui em diante.

Tenho pensado no assunto por conta de uma palestra que assisti, a convite da PWC, de Stuart Russel, professor, doutor em ciência da computação e uma das maiores referências sobre IA no mundo. A abordagem que ele deu ao assunto me levou a ler seu livro “Inteligência artificial a nosso favor: como manter o controle sobre a tecnologia”, que comento aqui.

O livro foi escrito antes do lançamento do ChatGPT, mas traz uma reflexão que é cada vez mais importante, à medida que os desenvolvimentos em IA avançam. O autor parte do pressuposto de que chegaremos a uma IA geral (softwares com inteligência semelhante à humana e capacidade de autoensino) ou IA superinteligente.

O especialista em tecnologia Ray Kurzweil previu recentemente que a IA chegará ao nível humano em 2029. O empresário Elon Musk fez uma projeção ainda mais ousada: que a IA chegará neste ponto no próximo ano e, em 2029, será mais inteligente que todos os humanos juntos.

Os Riscos e Desafios da IA Superinteligente

Russell aborda os riscos ligados ao desenvolvimento de uma IA superinteligente. Esta preocupação é compartilhada pela comunidade científica. Já no início do ano passado, a ONG Future of Life publicou uma carta assinada por centenas de pesquisadores e executivos ligados à tecnologia – incluindo Elon Musk – pedindo uma pausa nos experimentos com IA devido aos “riscos profundos para a humanidade” e um avanço “fora do controle” das tecnologias de IA. E esse risco, segundo Russell, é muito real.

Mesmo com os modelos de IA “não tão inteligentes” que temos hoje, podemos observar os efeitos nocivos, por exemplo, dos algoritmos de seleção de conteúdo que funcionam nas redes sociais. Segundo Russell, estes algoritmos não são programados simplesmente para apresentar itens que o usuário goste de clicar. Para maximizar o click-through, “a solução é alterar as preferências do usuário a fim de torná-las mais previsíveis”. Agora, imagine esta lógica aplicada em outras áreas de nossa vida.

O livro aborda formas de minimizar os riscos ligados ao avanço dessa tecnologia. A primeira opção, impedir este desenvolvimento, não é viável e nem desejável. Não é viável tendo em vista os interesses envolvidos – o valor econômico da IA de nível humano pode ser medido em quatrilhões de dólares. Somente o mercado de robôs humanoides deve crescer para US$ 1 trilhão, em 2030. Vinod Khosla, investidor em capital de risco, estima que teremos um bilhão de

robôs humanoides nos ajudando nas mais diversas tarefas em 2040. E não é desejável, pois estaríamos perdendo uma oportunidade de ouro para melhorar a condição humana e construir uma civilização melhor.

O autor avalia diversas outras formas para reduzir os riscos, como mudar o objetivo de uma máquina inteligente, criando o que ele chama de máquinas benéficas. Normalmente, os objetivos são definidos externamente e a máquina estabelece uma série de ações para atingir o objetivo da forma mais eficaz. Por exemplo, ganhar uma partida de xadrez.

Esta não é uma estratégia apropriada quando lidamos com IAs superinteligentes. Primeiro, porque não sabemos qual é o objetivo. Há oito bilhões de pessoas no mundo que responderiam de forma diferente a esta questão. Depois, quem garante que esta definição seja a melhor possível ou que trabalhe a favor do bem-estar geral e não para atender determinados interesses.

Uma abordagem mais viável seria introduzir um grau de incerteza com relação aos objetivos e definir algoritmos que busquem sempre atender às preferências de cada pessoa e se adaptem constantemente, por meio da observação do comportamento humano.

Imagine que, quando você tiver seu próprio robô, ele se adapte a cada circunstância para preparar a comida que você gosta, comprar os ingressos para assistir ao tipo de filme que você prefere e assim por diante. Porém, mesmo esta abordagem enfrenta uma série de desafios. Um deles é que nem sempre sabemos das nossas preferências e mesmo que acreditemos que sim, desconhecemos como estas preferências impactarão nossa vida futura.

Por fim, é imperativo que haja algum tipo de regulação. A Alemanha foi pioneira com a aprovação de uma lei para as redes sociais que ficou conhecida como Netzwerkdurchsetzungsgesetz. Hoje, este assunto está em discussão na maioria dos países. Porém, quando se trata de regular tecnologias de IA que ainda não foram desenvolvidas, o problema é bem maior.

O que nos traz otimismo é que muitos pesquisadores, governos e organizações estão trabalhando nessa questão. O Fórum Econômico Mundial identificou quase trezentas iniciativas diferentes para desenvolver princípios éticos em IA. Sociedades profissionais e consórcios industriais, como o Partnership for AI, promovem a cooperação para a segurança em IA. Portanto, estamos fazendo a lição de casa.

Concluo com a frase final do livro: “Na verdade, não há nada em nosso mundo atual que equivalha à relação que teremos com máquinas inteligentes benéficas no futuro. Resta saber como isso vai acabar”.

*Rogério Baldauf é Diretor Superintendente da Schmersal no Brasil