André Magrinho, Professor universitário, doutorado em gestão | andre.magrinho54@gmail.com

Nos últimos meses tem-se adensado o debate a propósito dos perigos dos novos desenvolvimentos da inteligência Artificial (IA). O pioneiro da IA, ​​Geoffrey Hinton, defende que esta pode representar uma ameaça, quando "coisas inteligentes nos podem enganar".

Também, um grupo de cientistas anunciou recentemente ter encontrado uma forma de usar ressonâncias magnéticas cerebrais e modelagem de inteligência artificial para decifrar "a essência" do pensamento das pessoas, um passo em direção à leitura da mente, transcrevendo pensamentos, porventura contra a vontade das pessoas, nomeadamente quando estão a dormir, o que levanta questões sobre a "privacidade mental” e “receios éticos”. Em abril, o CEO do Twitter, Elon Musk, associou-se a milhares de signatários de uma carta aberta a pedir uma pausa de seis meses no desenvolvimento de sistemas mais poderosos do que o recém-lançado “GPT-4 da OpenAI”.

Há, seguramente, razões para nos interrogarmos se “será a inteligência Artificial realmente um perigo?”. A resposta não é simples nem evidente. Na verdade, a IA define-se através das capacidades de uma máquina para reproduzir competências e desenvolver funcionalidades semelhantes às que os humanos efetuam em matéria de raciocínio, aprendizagem, planeamento e criatividade. E, é suposto que o façam atendendo e descodificando o ambiente que as rodeiam, desenvolvendo formas de aprendizagem máquina, lidando com o que percebem, resolvendo problemas, agindo com o intuito de alcançarem objetivos específicos.

A IA está cada vez mais presente no nosso quotidiano, por exemplo, nos softwares (assistentes virtuais, análise de imagem, motores de busca, sistemas de reconhecimento facial e de voz), incorporada em hardware específicos (robôs, drones, IoT-Internet das coisas, transportes), e nas mais diversas aplicações a que recorremos (pesquisa na web, assistentes pessoais e digitais, compras e publicidade online, traduções automáticas, cibersegurança, em funcionalidades de segurança dos carros.

Assim sendo, é difícil parar os desenvolvimentos da inteligência artificial, a partir do momento que já os integrámos no nosso modo de vida. Seria algo como tentar parar o vento. Isso não obsta a que muitos dos receios em relação aos desenvolvimentos da IA, sejam reais e legítimos, e que seja necessário ser proactivo em relação a eles.

Uma das mais importantes características da nova plataforma de tecnologias digitais, em que a IA, é transversal a todas elas, e que está bem patente na IoT-Internet das Coisas (ou de tudo), reside na capacidade não só de funcionarem de forma integrada, mas sobretudo conectarem as pessoas entre si (o que já acontecia na 1ª fase da internet) e também as máquinas entre si, com a capacidade destas de tomarem decisões autonomamente, isto é, sem intervenção humana direta, e em patamares cada vez mais elevados.

Por isso, o grande desafio está em saber utilizar o potencial da inteligência artificial para aumentar as capacidades humanas tirando partido do stock de conhecimento existente. Será o caso dos robôs colaborativos que nos ajudam nas mais diversas atividades e funções.  É, também verdade, que podemos imaginar um sistema militar coadjuvado pela inteligência artificial, a tomar a decisão de ativar autonomamente uma arma letal. É por isso, que para minimizar os legítimos receios associados aos novos desenvolvimentos da IA, se torna imperativo, desenvolver mecanismos de regulação à escala nacional, regional e internacional, vinculando Estados e Organizações de âmbito nacional e internacional.

E, o tempo urge.