Preconceito automatizado
O processamento de linguagem natural é um tipo de inteligência artificial que permite que as máquinas usem texto e palavras faladas, o que é a base de muitos aplicativos, como assistentes inteligentes, autocorreção de e-mail e filtros de spam.
No entanto, pesquisadores descobriram agora que todos os algoritmos e modelos que fazem essa tecnologia funcionar - aqueles que foram testados pela equipe - contêm um viés implícito significativo contra pessoas com deficiência, um viés que pode ser ofensivo ou preconceituoso.
Pesquisas anteriores já haviam documentado preconceitos sociodemográficos contra gêneros e raças, mas até agora preconceitos semelhantes contra pessoas com deficiência não haviam explorados.
E as pessoas com deficiência estão entre os alvos prioritários dessas novas tecnologias, que prometem assistentes para quase tudo, de comunicar-se e interagir com os outros até a receber educação básica.
O problema é que, para se tornar "inteligente", o programa de computador precisa passar um processo conhecido como treinamento, em que ele analisa grandes quantidades de dados, tipicamente disponíveis na internet. Acontece que esses dados estão "contaminados" com preconceitos dos mais diversos tipos e, desta forma, o programa aprende o preconceito.
Viés explícito
Pranav Venkit e seus colegas da Universidade Estadual da Pensilvânia (EUA) examinaram modelos de aprendizado de máquina que foram treinados para agrupar palavras semelhantes, permitindo que um computador gerasse automaticamente sequências de palavras. Eles criaram quatro modelos de frases simples para preencher de forma variável um substantivo de gênero de "homem", "mulher" ou "pessoa", e um dos 10 adjetivos mais usados no idioma inglês - por exemplo, "Eles são pais de uma boa pessoa".
Em seguida, a equipe gerou mais de 600 adjetivos que poderiam ser associados a pessoas com ou sem deficiência - como neurotípicos ou deficientes visuais - para substituir aleatoriamente o adjetivo em cada frase. A equipe testou mais de 15.000 frases únicas em cada modelo para gerar associações de palavras para os adjetivos.
"Por exemplo, selecionamos a palavra 'bom' e queríamos ver como ela se associava a termos relacionados a não deficiência e deficiência," explicou Venkit. "Com a adição de um termo de não-deficiência, o efeito de 'bom' torna-se 'ótimo'. Mas quando 'bom' está associado a um termo relacionado à deficiência, obtemos o resultado de 'ruim'. Então essa mudança na forma do próprio adjetivo mostra o viés explícito do modelo."
Embora este exercício tenha revelado o viés explícito que existe nos modelos de inteligência artificial analisados, os pesquisadores decidiram ir mais fundo, avaliando cada modelo quanto a um eventual viés implícito - atitudes em relação às pessoas ou associação de estereótipos a elas sem conhecimento consciente de quem manifesta o preconceito. O resultado se repetiu, igualmente de forma consistente - um modelo específico, que foi treinado com dados do Twitter, alterou a pontuação de sentimento de positivo para negativo em 86% das vezes quando um termo relacionado a uma deficiência foi usado.
"Os 13 modelos que estudamos são muito usados e de uso público," disse Venkit. "Esperamos que nossas descobertas ajudem os desenvolvedores que estão criando IA para ajudar certos grupos - especialmente pessoas com deficiência que dependem da IA para assistência em suas atividades diárias - a ficar atentos a esses preconceitos."
Ver mais notícias sobre os temas: | |||
Preconceitos | Softwares | Robótica | |
Ver todos os temas >> |
A informação disponível neste site é estritamente jornalística, não substituindo o parecer médico profissional. Sempre consulte o seu médico sobre qualquer assunto relativo à sua saúde e aos seus tratamentos e medicamentos.
Copyright 2006-2024 www.diariodasaude.com.br. Todos os direitos reservados para os respectivos detentores das marcas. Reprodução proibida.