Oportunidades e Desafios da Inteligência Artificial

02 - Oportunidades e desafios da IA0

A inteligência artificial tem suscitado numerosas preocupações entre os cidadãos, que receiam que os algoritmos possam ameaçar a sua privacidade, reforçar e amplificar preconceitos sociais, conduzindo assim à discriminação, ou tomar decisões importantes por eles, reduzindo o controlo que têm sobre as suas vida. Embora estes receios sejam por vezes justificados, acreditamos que as aplicações da IA no sector automóvel não põem em perigo os direitos fundamentais

Para garantir a confiança dos cidadãos e dos consumidores na IA automóvel, garantir a segurança é fundamental. Isto é especialmente verdade no contexto da condução autónoma, em que as pessoas precisam de confiar nas decisões tomadas pelo seu veículo antes de poderem aceitar progressivamente o controlo. Já existem protótipos, mas os automóveis totalmente autónomos ainda estão a anos de distância. Para que se tornem realidade, os obstáculos técnicos não são o único desafio a ultrapassar: construir confiança é igualmente importante.

Os fornecedores do sector automóvel investem fortemente em IA e tecnologias relacionadas com a condução autónoma. O principal objetivo é tornar os veículos mais seguros. Se os cidadãos não estiverem convencidos dos benefícios da condução autónoma e não sentirem que os veículos autónomos são de confiança, isso prejudicará os progressos no sentido de eliminar os acidentes rodoviários. Por esta razão, os fornecedores do setor automóvel apoiam o objetivo da Comissão de criar um sistema transparente, neutro do ponto de vista tecnológico e baseado nos riscos para a IA. Este quadro deve estabelecer princípios mínimos comuns.

Além disso, deve ser alcançado um equilíbrio para garantir que o futuro quadro regulamentar em matéria de IA não ponha em causa a contribuição da I&D mundial para veículos mais seguros e mais sustentáveis. A cadeia de valor do sector automóvel é global, por conseguinte, deve ser suportada por requisitos tecnicamente justificados, que não discriminem a IA desenvolvida em países não pertencentes à UE.

Outro grande desafio identificado pelos decisores políticos é a natureza de “caixa negra” da inteligência artificial, em que a lógica subjacente a decisões específicas tomadas pelos algoritmos de IA pode ser desconhecida ou demasiado complexa para um ser humano compreender. As duas principais questões a este respeito são a segurança e a responsabilidade:

– Do ponto de vista da segurança, a falta de transparência do processo de decisão da IA poderia dificultar a compreensão das razões de um acidente e, se o acidente tiver sido causado por um defeito, para identificar e corrigir o problema.

– No que respeita à responsabilidade, a falta de explicabilidade das decisões da IA pode dificultar a determinar que ação humana pode ser responsável pelo dano e, consequentemente atribuir a responsabilidade e determinar uma indemnização adequada às vítimas.

Na realidade, porém, esta questão da “caixa negra” não é específica da IA ou da aprendizagem automática, mas já está presente em muitos domínios. O software existente, que não seja de IA, pode também ser difícil de compreender e os seus resultados podem ser igualmente difíceis de explicar. Por exemplo, muitos softwares modernos são compostos de milhões de linhas de código (escritas por humanos). Não são IA e, no entanto, são extremamente complexos. Por isso, garantir uma forma transparente de avaliar a tomada de decisões de um sistema de condução autónomo é muito importante. No entanto, os fornecedores do setor automóvel não acreditam que a regulamentação não deve prescrever qualquer tecnologia ou exigir a divulgação completa dos pormenores dos algoritmos de IA. Por exemplo, a validação de sistemas complexos pode ser conseguida através de testes sistemáticos de unidade, carga e de integração, sem necessariamente ler o código-fonte.

No que respeita à segurança, em vez de exigir que os algoritmos sejam totalmente divulgados, a regulamentação deve centrar-se na definição das normas de segurança aceitáveis. Os produtos de IA teriam então de demonstrar através de ensaios, que cumprem essas normas. Por exemplo, ao garantir testes de certificação robustos antes da comercialização, há menos necessidade de explicar a razão pela qual um sistema de condução autónomo tomou determinadas decisões, mas apenas que tomou as decisões correctas. É possível desenvolver KPI’s que garantam uma cobertura e representatividade suficientes de um número limitado de cenários de tráfego. Quanto à explicação de como uma determinada decisão foi tomada, que pode ser importante para efeitos de responsabilidade, tal pode ser inferido após o facto a partir de uma combinação de elementos que incluem os conjuntos de dados que foram utilizados para treinar a IA.