O Centro de Engenharia de Telecomunicações (TEC), um órgão técnico do DoT, propôs desenvolver padrões voluntários para avaliar e classificar a robustez dos sistemas de IA em redes de telecomunicações e infraestrutura digital. Já iniciou consultas às partes interessadas sobre o assunto e solicitou contribuições, cuja última data é 15 de dezembro.
“Existem duas faixas de projetos. Um, no âmbito do MeitY, que financia oito projectos, e o TEC (no âmbito do DoT) já está a trabalhar em normas para IA responsável”, disse um funcionário do governo ao ET. “No ano passado, lançamos um padrão para avaliação e classificação de sistemas de IA quanto à justiça. Se houver preconceitos, como você avalia? Esta norma padroniza o processo e o quantifica.”
Em Julho do ano passado, com base em consultas às partes interessadas e nos contributos de especialistas no domínio, o TEC também revelou uma norma para “Avaliação e Classificação de Equidade de Sistemas de IA”, descrevendo procedimentos para avaliar e classificar sistemas de IA quanto à imparcialidade.
“Assim que obtivemos o padrão, precisávamos de um ecossistema. Precisávamos de ferramentas padrão para testar os sistemas de IA. Além disso, precisávamos de infraestruturas como laboratórios de testes que pudessem conquistar o meio académico”, disse o responsável.
Os departamentos assinaram memorandos de entendimento com o Instituto Indraprastha de Tecnologia da Informação de Delhi, a Universidade Amrita, com sede em Coimbatore, e o Instituto de Defesa de Tecnologia Avançada em Pune, entre outros. Entretanto, no âmbito das manifestações de interesse (EoIs) convocadas pela MeitY, vários institutos académicos associaram-se ao TEC, disse o responsável.
Descubra as histórias de seu interesse
No início de outubro, a IndiaAI (um portal de conhecimento/organização de pesquisa da MeitY) selecionou oito projetos de “IA responsável” contra as EoIs flutuadas sob o pilar de IA segura e confiável do Missão ÍndiaAI.“Há duas coisas que pretendemos alcançar com os projetos apoiados pela MeitY. Primeiro, deveríamos estender nosso padrão a outras modalidades, como imagens. Pode haver preconceitos nas imagens geradas por IA. Em textos não estruturados como tweets, e-mails, tabelas, processamento de linguagem natural e LLMs (grandes modelos de linguagem), também gostaríamos de ampliar nossos padrões para avaliar a justiça”, disse o funcionário.
A palavra-chave aqui é voluntária, disse o funcionário, para ajudar startups de IA, e não para ser prescritiva.
Estes projetos visam o desenvolvimento, a implantação e a adoção segura e confiável da IA, através do desenvolvimento de ferramentas e estruturas indígenas responsáveis que são contextualizadas com a diversidade social, cultural e linguística da Índia.
Os temas dos oito projetos financiados pelo MeitY são: aprendizado de máquina, geração de dados sintéticos, Mitigação de preconceito de IA estratégia, estrutura de IA explicável, estratégia de melhoria da privacidade, estrutura de certificação ética de IA, ferramenta de auditoria de algoritmo de IA e estrutura de teste de governança de IA.
Os candidatos aos projetos selecionados incluem instituições acadêmicas, startups, organizações de pesquisa e membros da sociedade civil.