Desde 2015, o IRC investiu em Placa de sinalização – um portfólio de aplicativos móveis e canais de mídia social que respondem perguntas em diferentes idiomas para pessoas em situações perigosas. O projecto Signpost, que inclui muitas outras organizações, atingiu 18 milhões de pessoas até agora, mas o IRC quer aumentar significativamente o seu alcance através da utilização de ferramentas de IA – se o puderem fazer com segurança.
Os conflitos, as emergências climáticas e as dificuldades económicas impulsionaram a procura de assistência humanitária, com mais de 117 milhões de pessoas deslocadas à força em 2024, de acordo com o Nações Unidas agência de refugiados. A viragem para tecnologias de inteligência artificial é, em parte, impulsionada pela enorme lacuna entre necessidades e recursos.
Para cumprir o seu objectivo de alcançar metade das pessoas deslocadas no prazo de três anos, o IRC está a testar uma rede de chatbots de IA para ver se conseguem aumentar a capacidade dos seus agentes humanitários e das organizações locais que servem directamente as pessoas através do Signpost. Por enquanto, o projecto-piloto funciona em El Salvador, Quénia, Grécia e Itália e responde em 11 línguas. Baseia-se numa combinação de grandes modelos de linguagem de algumas das maiores empresas de tecnologia, incluindo OpenAI, Anthropic e Google.
O sistema de resposta do chatbot também usa software de atendimento ao cliente da Zendesk e recebe outro suporte do Google e Cisco Sistemas.
Se decidirem que as ferramentas funcionam, o IRC pretende alargar a infra-estrutura técnica a outras organizações humanitárias sem fins lucrativos, sem custos. Esperam criar recursos tecnológicos partilhados que organizações menos focadas tecnicamente possam utilizar sem terem de negociar diretamente com empresas tecnológicas ou gerir os riscos de implementação.
Descubra as histórias de seu interesse
“Estamos tentando ser realmente claros sobre onde estão as preocupações legítimas, mas apostar no otimismo das oportunidades e não permitir que as populações que servimos sejam deixadas para trás em soluções que tenham o potencial de escalar de uma forma que seja humana para humana. ou outra tecnologia não consegue”, disse Jeannie Annan, diretora de pesquisa e inovação do Comitê Internacional de Resgate. As respostas e informações que os chatbots Signpost fornecem são avaliadas por organizações locais para serem atualizadas e sensíveis às circunstâncias precárias em que as pessoas podem se encontrar. Um exemplo de consulta que o IRC compartilhou é de uma mulher de El Salvador viajando pelo México para os Estados Unidos com seu filho que procura abrigo e serviços para seu filho. O bot fornece uma lista de provedores na área onde ela está.
Consultas mais complexas ou confidenciais são escaladas para serem respondidas por humanos.
A desvantagem potencial mais importante dessas ferramentas seria que elas não funcionam. Por exemplo, e se a situação local mudar e o chatbot não souber? Poderia fornecer informações que não são apenas erradas, mas também perigosas.
Uma segunda questão é que estas ferramentas podem acumular um valioso conjunto de dados sobre pessoas vulneráveis que podem ser alvo de intervenientes hostis. E se um hacker conseguir acessar dados com informações pessoais ou se esses dados forem acidentalmente compartilhados com um governo opressivo?
O IRC disse que concordou com os fornecedores de tecnologia que nenhum de seus modelos de IA será treinado nos dados que o IRC, as organizações locais ou as pessoas que eles atendem estão gerando. Eles também trabalharam para anonimizar os dados, incluindo a remoção de informações pessoais e localização.
Como parte do projeto Signpost.AI, o IRC também está testando ferramentas como um tutor digital automatizado e mapas que podem integrar muitos tipos diferentes de dados para ajudar na preparação e resposta a crises.
Cathy Petrozzino, que trabalha para a empresa sem fins lucrativos de investigação e desenvolvimento MITRE, disse que as ferramentas de IA têm um elevado potencial, mas também elevados riscos. Para utilizar estas ferramentas de forma responsável, disse ela, as organizações devem perguntar-se: a tecnologia funciona? É justo? Os dados e a privacidade estão protegidos?
Ela também enfatizou que as organizações precisam reunir uma série de pessoas para ajudar a governar e conceber a iniciativa – não apenas especialistas técnicos, mas pessoas com profundo conhecimento do contexto, especialistas jurídicos e representantes dos grupos que utilizarão as ferramentas.
“Existem muitos bons modelos no cemitério da IA”, disse ela, “porque não foram elaborados em conjunto e colaboração com a comunidade de usuários”.
Para qualquer sistema que tenha impactos potencialmente transformadores, disse Petrozzino, os grupos devem trazer especialistas externos para avaliar de forma independente as suas metodologias. Os projetistas de ferramentas de IA precisam considerar os outros sistemas com os quais irão interagir, disse ela, e precisam planejar o monitoramento do modelo ao longo do tempo.
Consultar pessoas deslocadas ou outras pessoas que as organizações humanitárias servem pode aumentar o tempo e o esforço necessários para conceber estas ferramentas, mas não ter a sua contribuição levanta muitos problemas éticos e de segurança, disse Helen McElhinney, diretora executiva da Rede CDAC. Também pode desbloquear o conhecimento local.
As pessoas que recebem serviços de organizações humanitárias devem ser informadas se um modelo de IA irá analisar qualquer informação que forneçam, disse ela, mesmo que a intenção seja ajudar a organização a responder melhor.
Isso requer consentimento significativo e informado, disse ela. Eles também devem saber se um modelo de IA está tomando decisões que mudam vidas sobre a alocação de recursos e onde reside a responsabilidade por essas decisões, disse ela.
Degan Ali, CEO da Adesouma organização sem fins lucrativos na Somália e no Quénia, há muito que defende a mudança da dinâmica de poder no desenvolvimento internacional para dar mais dinheiro e controlo às organizações locais.
Ela perguntou como o IRC e outros que buscam essas tecnologias superariam os problemas de acesso, apontando para as interrupções de energia de uma semana causadas pelo furacão Helene nos EUA. Os chatbots não ajudarão quando não houver dispositivo, internet ou eletricidade, disse ela.
Ali alertou também que poucas organizações locais têm capacidade para participar em grandes conferências humanitárias onde a ética da IA é debatida. Poucos têm funcionários com experiência e conhecimentos suficientes para realmente se envolverem nestas discussões, disse ela, embora compreendam o poder e o impacto potenciais que estas tecnologias podem ter.
“Devemos ser extremamente cuidadosos para não replicar desequilíbrios de poder e preconceitos através da tecnologia”, disse Ali. “As questões mais complexas sempre exigirão experiência local, contextual e vivida para serem respondidas de forma significativa.”