PAULA RIBEIRO ALVES 

REGRAS HUMANAS PARA A INTELIGÊNCIA ARTIFICIAL – O avanço da inteligência artificial (AI – Artificial Intelligence) tem sido acompanhado pelo aumento da necessidade humana de criar regras que contenham essa espécie de magia dentro de limites que permitam mantê-la controlada.  

Esta necessidade de criar regras é, de certa forma, paradoxal já que a humanidade em geral e o ser humano em particular, ou pelo menos alguns seres humanos suficientemente ricos e poderosos, apostam no desenvolvimento e utilização da AI precisamente para conseguirem alcançar resultados que estão para além da capacidade humana. Os especialistas, que compreendem o que está a acontecer, sabem que a perda de controlo do criador sobre a criação tem sido frequente ao longo da história, muitas vezes com os piores resultados. Um dos exemplos mais dramáticos terá sido o da energia nuclear, criada para o bem e usada na guerra como se sabe. Harvard e MIT juntaram esforços, entre março e junho, para pensarem em conjunto, num pequeno grupo formado por académicos, especialistas em tecnologia, gestores, políticos e outros profissionais, sobre o tema da Ética e governance da AI. Esta iniciativa, criada em 2017, teve a sua terceira edição este ano e, segundo o The Buzz, a newsletter do The Berkman Klein Center for Internet & Society, foram “three months of learning, ideating, and creating”. 

 Sinais estranhos e preocupantes 

Os utilizadores comuns, mesmo os mais distraídos, vão-se apercebendo também de sinais estranhos e preocupantes. Por exemplo, quando alguém, enquanto viaja com a família num carro, descreve as caraterísticas de uma certa casa, referência arquitetónica na zona, comentando que é uma pena não saberem exatamente onde fica para passarem por lá e, nesse momento, recebe no seu smartphone informação sobre essa mesma casa e a sua exata localização, fica surpreendido. Provavelmente tenderá a pensar “Que coincidência” e a aproveitar a oportunidade da visita que se tornou possível. Quando após uma conversa sobre roupa recebe a imagem de uma peça igual à que descreveu, com a informação de onde está disponível para compra, começará a pensar que há muitas coincidências e, após mais umas quantas, olhará com desconfiança para os dispositivos digitais que estejam na zona onde está a conversar pessoalmente com alguém. E, quando o telemóvel lhe começa a perguntar se gostou do restaurante onde acabou de comer, da exposição que acabou de visitar, do jardim por onde passou, pedindo-lhe para classificar a experiência numa escala de zero a cinco, tenderá a sentir que está a ser seguido. A reação pode ser “Quem é que pergunta? O que é que tem a ver com isso? Que abuso.”; pode ser só realizar mais um click de entre os milhares que faz por dia para que as coisas digitais andem para a frente depressa; ou pode ser uma resposta consciente pretendendo contribuir para a comunidade digital que antes de ir a um sítio confere em sites a respetiva classificação e comentários, presumivelmente de quem já lá foi e sabe do que fala. 

 Habilidades digitais 

As preocupações de todos aumentam mais quando se noticia que foram obtidas ilicitamente milhões de informações sobre utilizadores e senhas, sejam bancários, de redes sociais ou outros. Ou que foram praticados novos e estranhos crimes, como o sequestro de dados pelos quais são pedidos resgates astronómicos, com a ameaça de manter inoperacional a empresa ou serviço público vítima do cibercrime. Ou que existem sistemas como o “crédito social” chinês, em que atravessar a rua fora da passadeira, esquecer-se de pagar alguma multa ou imposto, ou cometer algum pequeno delito implica uma má classificação como cidadão, o que tem como consequência ser impedido de acesso a serviços públicos, a comprar casa, ou a escola para os filhos. O Governo chinês, transparente, informou os seus cidadãos de que entre 2014 e 2020 iria desenvolver o plano e implementá-lo, o que está a fazer. Por trás de todas estas habilidades digitais está a big data e a inteligência artificial, desenvolvida com talento pelos que exercem as novas profissões de data minning, de “neurologistas” de redes neuronais artificiais e de muitos outros com atividades e funções ainda inominadas.  

 Conter, limitar e disciplinar  

Por tudo isto, a necessidade de criar regras para conter, limitar e disciplinar a AI tem vindo a crescer a grande ritmo. A questão não é nova e é curioso que, também aqui, seja a literatura que dá o mote, neste caso com as chamadas “leis de Azimov”, enunciadas pelo escritor de ficção científica que teve o cuidado de estabelecer regras básicas intransponíveis para os robots que inventou. A par dessa ficção agora recuperada para a realidade, um número crescente de organizações globais, setoriais e nacionais e especialistas de diversas áreas têm desenvolvido várias iniciativas com o objetivo de criar regras para a AI. Foi, recentemente, divulgado pela Universidade de Harvard o seu trabalho em curso “Principled Artificial Intelligence: Mapping Consensus and Divergence in Ethical and Rights-Based Approaches”. Consiste na construção de um mapa comparativo entre os 32 conjuntos de princípios e regras sobre o assunto, até agora identificados (encontrando-se já extraordinária infografia disponível online). Apostaria que para este trabalho foi usada inteligência humana e artificial. O resultado é excelente. Quando falamos de regras que disciplinem a AI, aquilo de que estamos verdadeiramente a falar é de regras que nos disciplinem a nós, pessoas, organizações e Estados, que nos limitem e nos obriguem a ter uma conduta ética perante uma realidade nova, fortíssima criadora de valor e de poder, capaz de deslumbrar os mais empedernidos e de tentar muitos. Esperemos que a AI nos possa ajudar a fazer prevalecer a Ética.