23/09/2019 Você sabe o que os algoritmos estão dizendo a seu respeito?Com informações da Agência Brasil
Especialistas já alertaram que a inteligência artificial para detectar emoções não tem base científica e que essa mesma tecnologia na área de exames médicos pode ser facilmente enganada.[Imagem: Marcello Casal jr/Agência Brasil]
Intromissão tecnológica Nos Estados Unidos, um cidadão entrou em um supermercado na cidade de Minneapolis para reclamar que sua filha adolescente estava recebendo propagandas para grávidas. Dias depois, o pai da garota se desculpou com o estabelecimento ao confirmar com a filha que ela realmente esperava um bebê. A história, revelada por uma reportagem do jornal New York Times em 2012, foi relembrada pelo professor da Dennis Hirsch, da Universidade do Estado de Ohio (EUA), para ilustrar o poder das tecnologias de coleta e análise de dados utilizadas para prever comportamentos e aplicar essas inferências em diversos campos, do marketing à concessão de créditos ou acesso a serviços de saúde. Hirsch abordou o tema durante o 10º Seminário de Proteção à Privacidade e aos Dados Pessoais, organizado pelo Comitê Gestor da Internet no Brasil. Segundo o pesquisador, o caso exemplifica um dos riscos dessas técnicas ao considerar sentimentos, traços de personalidade e comportamentos como forma de persuadir pessoas a adquirem algum produto ou serviço. Outro risco potencial, acrescentou, é a manipulação das pessoas em processos políticos. Ele citou o escândalo da empresa Cambridge Analytica, que utilizou dados levantados no Facebook por um aplicativo para explorar emoções das pessoas em campanhas eleitorais, como na disputa presidencial dos Estados Unidos de 2016 e no referendo que avaliou a permanência ou não do Reino Unido na União Europeia. Esses tipos de ferramentas examinam grande quantidade de bases de dados, estabelecem correlações entre elas e identificam padrões. Estes padrões, espécies de rótulos atribuídos a cada indivíduo, são tomados como base para prever comportamentos das pessoas, como se um consumidor tem maior ou menor propensão a pagar corretamente ou ficar inadimplente, por exemplo no cartão de crédito. Discriminação automatizada Um problema potencial nesse tipo de operação é a discriminação. Esta pode ocorrer tanto pela finalidade do uso quanto pela forma como a tecnologia é desenhada. Ao traçar padrões e classificar pessoas e atitudes, um sistema pode definir parâmetros considerados adequados e desvalorizar quem não se enquadra neles, com risco de colocar nessa posição segmentos sociais, como no caso dos sistemas de reconhecimento facial para negros, um dos vários exemplos de como a Inteligência Artificial desenvolve preconceitos. Este tipo de tratamento pode ainda ser reforçado pelos registros utilizados para treinar o sistema. Hirsch citou como exemplo a empresa de comércio eletrônico Amazon. Ao desenvolver um algoritmo para avaliar currículos, a base empregada foi a dos próprios funcionários da companhia. Como na área de tecnologia há mais profissionais homens, o programa passou a utilizar como currículo desejável critérios que desvalorizavam mulheres. Explicação e cuidados O pesquisador Renato Leite Monteiro, por sua vez, colocou como problema chave a opacidade dessas tecnologias e a falta de conhecimento sobre como elas funcionam - os próprios cientistas não sabem como a inteligência artificial funciona. Diante disso, Renato defendeu o que ele chama de um direito à explicação, que consistiria na garantia ao cidadão de ter informações inteligíveis sobre como seus dados foram processados, de modo que ele possa compreender como uma decisão foi tomada sobre ele e de que maneira pode reagir a ela. O processamento de informações por algoritmos e sistemas inteligentes já é usado rotineiramente em diversas áreas, e os problemas podem afetar direitos em setores como saúde (notas para planos de saúde), moradia (financiamento habitacional), mercado financeiro (concessão de crédito), educação (acesso a escolas e cursos), emprego (análise para contratação), entre outros. A diretora de políticas para transformação digital do Ministério da Ciência e Tecnologia (MCTIC), Miriam Wimmer, abordou esses riscos no caso de sistemas de inteligência artificial, reforçando que também no caso destas tecnologias existem diversas pesquisas mostrando casos de discriminação. Diante destes problemas, a gestora defendeu alguns princípios orientadores: O desenvolvimento dessas soluções deveria ser orientado por valores; este processo deveria abarcar avaliações prévias do impacto e dos riscos; a coleta de dados deveria ser restrita ao mínimo possível nas fases de treinamento do sistema; e, ao longo do ciclo desses produtos, deveriam ser implementados mecanismos de monitoramento com participação dos atores impactados. Fonte: Diário da Saúde - www.diariodasaude.com.br URL: https://diariodasaude.com.br./print.php?article=voce-sabe-algoritmos-estao-dizendo-seu-respeito A informação disponível neste site é estritamente jornalística, não substituindo o parecer médico profissional. Sempre consulte o seu médico sobre qualquer assunto relativo à sua saúde e aos seus tratamentos e medicamentos. |