Site icon

Feridos em guerra: decide a AI

Em Março passado, a DARPA (acrónimo da Defense Advanced Research Projects Agency) anunciou que estava a trabalhar num sistema inovador de inteligência artificial (o documento completo: Broad Agency Announcement) capaz de tomar decisões no campo dos cuidados de saúde. O projecto, chamado In The Moment, coloca pela primeira vez a inteligência artificial (AI) na linha da frente do sector militar.

Já existiam sistemas que permitiam a exploração da AI, mas eram software que exigiam a intervenção humana para agir. Mas o projecto da DARPA vai mais além: caso os estudos iniciais produzam resultados positivos, a AI terá a tarefa de gerir a triagem durante uma batalha, através de algoritmos que possam permitir definir quais as intervenções a priorizar, permitindo, segundo os pesquisadores, salvar mais vidas do que até agora, num espaço de tempo extremamente curto.

Claramente, o receio dos peritos é que a AI possa desenvolver tendências potencialmente letais, levando-a a decidir salvar uma pessoa em vez de outra com base em preconceitos gerados pelos dados com os quais é alimentada em vez de elementos médicos objectivos.

A campanha da DARPA

Durante mais de cinquenta anos, a DARPA, um organismo americano líder no campo da investigação e desenvolvimento de tecnologias avançadas no sector militar, tem centrado a sua investigação na AI, a nova fronteira, a fim de facilitar o progresso e a aplicação de tecnologias de inteligência artificial baseadas na aprendizagem por parte das máquinas, capazes de adquirir novos conhecimentos através de modelos generativos contextuais e explicativos.

Já em Setembro de 2018, tinha sido anunciado um investimento plurianual de mais de 2 mil milhões de Dólares com o objectivo de apoiar a chamada campanha AI Next. Os objectivos a que os projectos de investigação se destinavam eram:

Um desenvolvimento “obrigatório” dados os problemas que a formação da AI ainda apresenta, também ligados ao tempo e aos custos.

As máquinas previstas pela DARPA:

funcionarão mais como colegas do que como ferramentas. Para este fim, a investigação e o desenvolvimento da DARPA na simbiose homem-máquina visa a colaboração com as máquinas. Habilitar os sistemas informáticos desta forma é da maior importância porque os sensores, os sistemas de informação e comunicação geram dados a velocidades mais rápidas do que as que os humanos podem assimilar, compreender e agir. A incorporação destas tecnologias em sistemas militares que colaboram com os combatentes facilitará melhores decisões em ambientes de batalha complexos, críticos do ponto de vista do tempo; permitirá uma compreensão partilhada de informação maciça, incompleta e contraditória; e permitirá aos sistemas não tripulados executar missões críticas com segurança e com elevados níveis de autonomia.

O projecto In the Moment

É neste contexto que foi criado o projecto In the Moment, com o objectivo de permitir a gestão rápida da triagem das vítimas em contextos em que a rápida tomada de decisões é essencial. Objectivo declarado? O bem dos combatentes.

As operações militares, desde o combate à triagem médica até ao socorro em caso de catástrofe, exigem decisões complexas e rápidas em situações dinâmicas em que muitas vezes não existe uma resposta única e correcta. Dois líderes militares experientes que enfrentam o mesmo cenário no campo de batalha, por exemplo, podem tomar decisões tácticas diferentes quando confrontados com opções difíceis. À medida que os sistemas de inteligência artificial se tornam mais avançados na sua colaboração com os humanos, é crucial criar a adequada confiança humana na capacidade da AI para tomar decisões sólidas.

Pelo que, em vez que trabalhar para eliminar as guerras, a DARPA investe biliões para realizar sistemas não-humanos capazes de socorrer as vítimas da guerra. Perante a estupidez humana, o objectivo é criar “confiança humana na capacidade da AI”, e algoritmos que “façam escolhas fiáveis em circunstâncias difíceis”. O projecto procura conceber “algoritmicamente um raciocínio que possa ser comparado com as interpretações feitas pelos peritos humanos, de modo a assimilar o raciocínio da máquina ao do homem e evitar, tanto quanto possível, a ocorrência de imprecisões no diagnóstico” e proporcionar “o consequente planeamento das acções a empreender”.

Justo que a AI entre em cena para aliviar as consequências da estupidez humana? Sim, é justo. Mas não é tão simples assim. A inteligência artificial tem a capacidade para decidir sobre o destino dos feridos num cenário de completa automatização? Porque é disso que estamos a falar.

Sohrab Dalal, Coronel e chefe do ramo de transformação médica do Supreme Allied Command Transformation da NATO diz que sim (obviamente): o processo de triagem, através do qual os médicos avaliam a gravidade dos ferimentos dos soldados e os cuidados de que necessitam, tem quase 200 anos e precisa de ser actualizado. O próprio Dalal está a trabalhar com a Universidade Johns Hopkins para criar um assistente de triagem digital que possa ser utilizado pelos Países membros da NATO. Neste caso, o assistente digital utilizará conjuntos de dados de lesões recolhidos pela NATO, sistemas de pontuação de vítimas, modelação preditiva e condição do paciente para criar um modelo que permita decidir quem deve receber primeiro os cuidados numa situação em que os recursos são limitados e o tempo extremamente curto.

Segundo Dalal:

É uma utilização realmente boa da inteligência artificial. O resultado final é que irá tratar melhor os pacientes e salvar vidas.

Da opinião contrária, porém, são especialistas como Sally A. Applin, investigadora e consultora que estuda o conjunto de pessoas, algoritmos e ética:

A inteligência artificial é boa a contar coisas. mas penso que poderia criar um precedente em que a decisão pela vida de alguém é colocada nas mãos de uma máquina.

Muitos especialistas em ética questionam-se, em particular, como funcionará na prática a AI desenvolvida pela DARPA: será que os conjuntos de dados utilizados resultarão em alguns soldados terem prioridade de tratamento sobre outros (sendo todos os outros iguais)? No calor do momento, será que os soldados farão simplesmente o que o algoritmo lhes disser, mesmo que o senso comum sugira o contrário? E, se o algoritmo desempenha um papel na morte de alguém, de quem é a culpa?

Peter Asaro, filósofo da AI na New School de New York, argumenta que os oficiais militares terão de decidir quanta responsabilidade é dada ao algoritmo no processo de tomada de decisão da triagem, e como resolver as muitas questões éticas subjacentes à utilização de tal sistema. Por exemplo: se houver uma grande explosão e civis entre os feridos, será que teriam menos prioridade do que os militares, mesmo que estivessem gravemente feridos?

Isto é uma chamada de valores, é algo que pode ser dito à máquina para dar prioridade de certas formas, mas é algo que a máquina não vai compreender.

A este respeito, acrescentou também que, como o programa se molda a si próprio, será importante verificar se o algoritmo está a perpetuar um processo de decisão distorcido, como já aconteceu em muitos casos:

Sabemos que há um prejuízo no AI; sabemos que os programadores não podem prever todas as situações; sabemos que a AI não é social; sabemos que a AI não é cultural.

Porque o processo decisional da AI não é igual ao nosso, que costuma ser mediado por uma infinidade de variáveis. E o processo decisional da AI é influenciado pela mesma AI, que evolui com o tempo. Quais serão os “valores” gerados pela AI?

AI na guerra: o presente

A inteligência artificial já desempenha um papel importante no contexto militar. Existem vários instrumentos militares que actuam de forma quase completamente autónoma, guiados pela AI. Um par de exemplos:

Para além destes instrumentos, existem também as AI que têm a tarefa de alterar a informação no decurso de um conflito armado, gerando notícias falsas ou verossímeis para radicalizar a opinião pública. Trata-se da AI ao serviço da propaganda: o que faz com que as pessoas suspeitem de falsidade mesmo onde não há nenhuma ou acreditem em algo que nunca aconteceu. Qualquer referência à guerra na Ucrânia não é acidental.

 

Ipse dixit.

Imagem: Pixabay