Imagem 1

Preconceito e desinformação do ChatGPT causam preocupação no Brasil

Preconceito e desinformação do ChatGPT causam preocupação no Brasil

A ministra Luciana Santos (Ciência, Tecnologia e Inovação) é a primeira mulher a ocupar o cargo, e tem entre suas atribuições promover o uso da inteligência artificial para o desenvolvimento científico e econômico do Brasil, combatendo o preconceito de gênero e contra as minorias da nova tecnologia. (Foto: Fábio Rodrigues Pozzebom / Agência Brasil)

O viés de gênero e contra as minorias, bem como a possibilidade de potenciar a desinformação em países, como o Brasil, onde isso é grave, são alguns dos temores despertados pelo chatGPT, a nova sensação em inteligência artificial.


RIO DE JANEIRO – O viés de gênero e contra as minorias, bem como a possibilidade de potenciar a desinformação em países, como o Brasil, onde isso é grave, são alguns dos temores despertados pelo chatGPT, a nova sensação em inteligência artificial.

Dessa vez, o foco é o trabalho intelectual, não o trabalho físico que vem sendo substituído por robôs na indústria. A nova ferramenta, capaz de escrever textos inéditos e de responder a diversas perguntas, afeta especialmente os serviços especializados de setores como tecnologia, publicidade e finanças.

Os chatbots, programas de inteligência artificial (IA), por meio dos quais assistentes virtuais conversam em tempo real com usuários, estão substituindo os trabalhadores, em sua maioria mulheres, que atendem os clientes em grandes empresas. Um exemplo de IA é a Alexa, assistente virtual da Amazon, gigante americana do comércio eletrônico e serviços de informática.

Agora o ChatGPT, modelo desenvolvido pela OpenAI, também dos Estados Unidos, tende a desempregar muita gente já que, segundo os especialistas, poderá substituir programadores de computador, engenheiros de software, designers gráficos, financeiros e publicitários, setores em que não predomina o trabalho feminino, há uma maioria de trabalhadores homens.

Viés preconceituoso de gênero e anti-minorias

Aplicação da chamada inteligência artificial generativa, por sua capacidade de gerar textos, imagens e até músicas originais, mantém o preconceito de gênero e a “tendência à exclusão de minorias”, segundo Tainá Aguiar Junquilho, pesquisadora do Instituto de Tecnologia e Sociedade (ITS).

Os chatbots de atendimento ao cliente costumam ser batizados com nomes, vozes e imagens femininas. Além da Alexa, no Brasil, o Banco Brasileiro de Descontos (Bradesco) tem sua boneca Bia e a rede comercial Magazine Luiza tem a Lu para o atendimento virtual. “Isso reforça a cultura machista de que são profissões femininas, que as mulheres estão aí para servir”, disse Junquilho à IPS de Brasília.

Em vez disso, os nomes dos sistemas de IA promovidos no Judiciário brasileiro são chamados de Victor no Supremo Tribunal Federal, Sócrates no Superior Tribunal de Justiça e Horus no Tribunal de Justiça do Distrito Federal, entre outros. “São reflexos da nomenclatura de gênero”, do viés em que o poder é masculino, delimitou o pesquisador de inovações e tecnologia no setor público, afirma a doutra em Direito.

“Produtos de IA, que processam uma grande massa de dados, tendem a generalizar. Subestimam a diversidade, as particularidades, em detrimento das minorias. Ou seja, reforçam o que hoje é maioria”, explicou.

Seminário sobre inteligência artificial realizado em Brasília, do qual participou o presidente da Microsoft, em maio de 2019, destaca a importância que o governo brasileiro atribui ao tema há anos. As inovações nessa área são introduzidas principalmente no Judiciário. (Foto: Marcelo Camargo / Agência Brasil).

Inteligente?

Atribui-se inteligência a essa tecnologia porque ela envolve “aprender” com uma quantidade gigantesca de dados e o uso de algoritmos. Logicamente, ela tende a reproduzir vieses e preconceitos a partir de informações do passado, captadas na internet e outras fontes.

“Não existe inteligência intrínseca na IA, resisto até ao nome. Inclui o software produzido por seres humanos, que são a inteligência do sistema. As aplicações generativas são puro software, que responde a testes baseados numa lógica de pesquisa pré-programada num gigantesco acervo de conteúdos”, afirmou Carlos Afonso, membro do Hall da Fama da Internet. O ChatGPT e outros sistemas de resposta semelhantes ainda são experimentos que requerem algum tempo para verificar sua consistência, analisou em entrevista à IPS, no Rio de Janeiro.

Veja Também:  Governo do Brasil sob assédio do mercado e da direita moralista

“Todos os sistemas de IA são uma combinação de dispositivos (computadores e unidades de armazenamento) e software, ou seja, algoritmos. Já foram identificados sérios problemas, como vícios derivados da linguagem dos programadores e do conteúdo capturado”, observou Afonso, um dos introdutores da Internet no Brasil. “Conteúdos são manipulados, distorcidos, reescritos ou plagiados”, o que pode afetar o conhecimento acumulado pela humanidade, alertou.

A ministra Carmen Lúcia lanço o projeto do assistente digital Victor que introduziu o uso da inteligência artificial no STF do Brasil, quando presidiu a entidade no final de 2017. Outros tribunais seguiram o exemplo e aproveitaram a tecnologia em seus trabalhos. (Foto: Marcelo Camargo/Agência Brasil)

Censura e plágio

O escritor irlandês Roald Dahl (1916-1990) viu suas obras destinadas ao público infantil, como “Charlie e a Fábrica de Chocolate”, mutiladas com a supressão de termos considerados ofensivos, como “gordo”, ele deu exemplos.

Também já houve denúncias de plágio, que devem se multiplicar, pois se trata de aproveitar o conhecimento e o conteúdo do passado em novos textos. O ChatGPT não menciona os autores de seu banco de dados, colocando os direitos autorais em cheque.

Atualmente, tramita no Senado brasileiro um projeto de lei para regulamentar a IA no país, aprovado na Câmara dos Deputados em setembro de 2021. Provavelmente estará desatualizado, dadas as novas questões impostas pela IA generativa.

A proposta, apresentada em 2020, teve origem em problemas como o reconhecimento facial que levou pessoas inocentes, geralmente negras, à prisão; e o uso discriminatório na seleção de novos funcionários.

A IA é cada vez mais utilizada na seleção de novos colaboradores, mas com ferramentas que geralmente têm um viés discriminatório, baseado em dados do passado em que só aparecem homens com experiência em cargos de liderança, lamentou Junquilho.

Isso também aparece em outros aplicativos, como o tradutor do Google, “que privilegia o masculino”, ou acentua estereótipos. A enfermagem, por exemplo, só está ligada a imagens de “mulheres brancas”, disse.

“Todos os sistemas de IA que não tiverem uma boa curadoria de dados, que evite uma sub-representação ou super-representação de alguns grupos, tenderão pelas estatísticas a generalizar e excluir minorias”, concluiu.

Multiplicador de Fake News

Outra preocupação no Brasil, por conta das punições dos últimos anos, é a exacerbação de informações falsas que, segundo especialistas, o ChatGPT e afins deveriam causar, ao baratear e facilitar sua divulgação.

A ascensão do movimento de extrema-direita, liderado pelo ex-presidente Jair Bolsonaro, inundou o Brasil com desinformação como forma de conquistar e reter ativistas e votos.

Além do desastre de quase 699.310 mortes por covid-19 até 10 de março, a disseminação de notícias falsas gerou um clima de tensão e medo de golpe nos últimos três anos.

Por outro lado, a IA até agora representou um avanço na pesquisa científica, permitindo o processamento acelerado e preciso de uma quantidade de dados sem precedentes.

O Instituto do Homem e Meio Ambiente da Amazônia (Imazon) usou IA para criar sua plataforma PrevisIA, que permite prever onde pode ocorrer desmatamento, com base em imagens de satélite e dados geográficos, como estradas.

A previsão é 80% certa em um raio de quatro quilômetros, diz o Imazon, organização não governamental que monitora a perda de vegetação amazônica e desenvolveu sistemas de alerta, agora aperfeiçoados com o uso de IA. (ED: GE)

Publicado originalmente em Inter Press Service: https://ipsnoticias.net/2023/03/sesgos-e-desinformacion-de-chatgpt-preocupan-en-brasil/

Tagged: , ,

Leave comment