VIDEOS

Como a inteligência artificial vai afetar o seu futuro?

Nas últimas décadas, a tecnologia de inteligência artificial (IA) tem sido amplamente discutida, não só pelo campo acadêmico, mas também na cultura pop e, consequentemente, na sociedade. Sua aplicabilidade no dia a dia é diversa e, muito provavelmente, você a utiliza sem perceber. Ela está no seu computador, celular, envolvida no seu trabalho, estudos, etc.

O uso das IAs em livros como Eu, robô, do autor russo Isaac Asimov, pode trazer uma noção da tecnologia como algo estritamente perigoso. Flávio Figueiredo, professor e pesquisador da Universidade Federal de Minas Gerais (UFMG), conceitua inteligência artificial como “a máquina imitando aspectos da inteligência humana, ou seja, a máquina está realizando tarefas que humanos conseguem realizar”. O professor ainda complementa que as IA’s sempre existiram, “elas conseguem jogar damas antes mesmo da volta do estudo sobre elas [na década de 1970]”. A diferença que Figueiredo aponta é que, hoje em dia, ela é estudada de forma mais profunda, pois o que se faz é uma “outra forma de programar a inteligência artificial”.

Uma das principais técnicas de produção de IA existente é a machine learning. Hugo de Paula, professor de Ciência da Computação da PUC Minas, conceitua a técnica como um modo de ensinar o objetivo da inteligência artificial por meio de dados: “A partir dos dados que são inseridos na máquina, a IA aprende e cria as regras para cumprir seu trabalho”, explica. Uma subcategoria dentro da machine learning seria o deep learning, que recebe dados mais estruturados em diferentes camadas para dar um resultado mais preciso.

Ética ao se programar

Como a principal forma de “treinar” máquinas é introduzindo-as a dados, o que for entregue a ela será sua moral. “Logo, para que o computador julgue o que é certo ou errado, é necessário que seus programadores estejam conscientes de suas ações e consigam distinguir o que seria prejudicial ou não para a sociedade ao utilizar inteligências artificiais”, detalha Hugo de Paula.

Para que haja maior controle das atitudes e das consequências das inteligências artificiais, há alguns princípios. Um deles seria o princípio ART – sigla, no inglês, para accountability; responsibility; transparency -, sendo o primeiro “capaz de responsabilizar a pessoa pelos erros da IA”, de acordo com Hugo de Paula. Já a responsabilidade, refere-se à segurança e ao compromisso de transparência com o usuário que utiliza a IA e quais seriam os dados coletados. Os termos de uso e políticas de privacidade, que sempre são exigidos a se fazer uma conta de usuário em um site, servem para garantir a responsabilidade de que o internauta está ciente de que está passando seus dados e a empresa não irá fazer um uso deturpado deles.

A última parte do princípio, a transparência, discute como o sistema funciona. Casos como o Chat GPT, instrumento que ficou famoso desde novembro de 2022 por dar respostas a perguntas com rapidez e certa precisão, que não diz como funciona, nem qual é sua base de dados, feririam a ética sob esse aspecto. Hugo de Paula ainda cita que, em casos como a IA na medicina, o médico poderá se recusar a usar determinada tecnologia por não entender seus métodos.

Problemas com a IA

Sabe-se que vivemos em uma sociedade racista, sendo assim, ver Inteligências Artificiais reproduzindo o racismo dos seres humanos não é algo distópico e nem absurdo, conforme explica Daiane Araújo, assessora de tecnologia da Ação Educativa. Ela relata já ter sentido diretamente o racismo das IA’s ao passar por um constrangimento no aeroporto, quando estava no banheiro e, ao tentar lavar a mão, a torneira acionada por sensor não liberou a água por não conseguir distinguir a cor de sua pele preta.

Daiane ainda comenta que as tecnologias que são treinadas por base de dados, são “alimentadas” por bancos com imagens, em sua maioria, de pessoas brancas. “Profissionais da área estão atualizando as informações que são fornecidas por IA’s de machine learning e, assim, o caso de tecnologias reproduzindo racismo pode diminuir”.

Polêmica com câmera

No ano de 2021, diversos usuários de uma câmera profissional relataram que rostos não-brancos não eram identificados como pessoas no visor do equipamento, o que levantou alegações de uma governança racista. Isso se dá pelo aprendizado de máquina, na qual a IA é submetida para entender padrões.

Flávio Figueiredo, professor de Ciência da Computação da UFMG, explica o machine learning para o ColabCast, podcast do Colab, como um exercício de memória para a máquina. Segundo ele, o treinamento se dá por amostragem de fotos de um banco de dados. Como vivemos em uma sociedade racista, e os trabalhadores dessas empresas são majoritariamente brancos, a inteligência usada para a identificação dos rostos terá problemas em enxergar pessoas de tons de pele diferentes.

Fonte : blogfca.pucminas.br – Em Video com a PotencializaMente – Foto: ip.usp.br/

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *