pixel facebook Pular para o conteúdo Pular para o rodapé Pular para o topo
Este é um espaço de livre manifestação. É dedicado apenas para comentários e opiniões sobre as matérias do Portal da Câmara. Sua contribuição será registrada desde que esteja em acordo com nossas regras de boa convivência digital e políticas de privacidade.
Nesse espaço não há respostas - somente comentários. Em caso de dúvidas, reclamações ou manifestações que necessitem de respostas clique aqui e fale com a Ouvidoria da Câmara Municipal de São Paulo.

Enviar mensagem

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Enviar comentário

Frente Parlamentar contra Tecnologias Racistas debate algoritmos e governança

Por: HELOISE HAMADA
DA REDAÇÃO

27 de fevereiro de 2024 - 21:03
Richard Lourenço | REDE CÂMARA SP

A Frente Parlamentar contra Tecnologias Racistas retomou os trabalhos na noite desta terça-feira (27/2). Neste segundo encontro, presidido pela vereadora Elaine do Quilombo Periférico (PSOL), o tema foi racismo algorítmico e governança.

Instituída pela Resolução nº 19/2023, a Frente Parlamentar foi criada com o objetivo de traçar um diagnóstico sobre os impactos da implementação de tecnologias com potencial de discriminação e segregação racial na cidade de São Paulo para a população negra e para os cofres do município. A primeira reunião foi realizada em novembro do ano passado.

“A tecnologia é ótima. A gente não é contra o avanço tecnológico. Pelo contrário, a gente acha que tem que ter cidades cada vez melhores nesse ponto de vista. Mas, isso não significa que as tecnologias são isentas de responsabilidade. Esse é o nosso ponto, entender como funcionam, ouvir os especialistas na área para poder criar uma política pública coerente”, afirmou a parlamentar.

Ela também comentou sobre o tema. “Um dos pontos muito importante quando a gente discute, por exemplo, a instalação de câmeras com reconhecimento facial são os algoritmos. E por que racistas? Porque a gente já tem um levantamento de especialistas dizendo que a possibilidade de erro nessa leitura que é feita por essas câmeras é muito maior com pessoas pretas, com mulheres sapatão, com pessoas trans. A nossa ideia é entender como funcionam esses algoritmos, qual a diferença de tratamento que esse algoritmo pode induzir com que a Prefeitura utilize contra seus cidadãos”, pontuou a vereadora.

Um dos especialistas convidados foi o mestre em filosofia do direito e bacharel em direito, e pesquisador do Centro de Inteligência Artificial, Thiago Marcílio. Ele destacou que algumas ferramentas acabam funcionando para “perpetuar e reproduzir o preconceito”.

“Toda vez que a gente trabalha com inteligência artificial, ela aprende a partir dos dados que a gente apresenta para ela. Então, a ferramenta pode aprender a ser racista e a ter comportamentos que reproduzem o racismo. O reconhecimento facial acaba sendo um exemplo porque boa parte das ferramentas de reconhecimento facial são treinadas com banco de dados de pessoas brancas que não representam o fenótipo das pessoas pretas, isso acaba gerando falhas de reconhecimento e pessoas que acabam erroneamente sendo identificadas. Existe uma falta de preocupação com a correta identificação dessas pessoas”, salientou.

A co-diretora executiva do Olabi, organização social de destaque na diversificação da cena de tecnologia e inovação, Silvana Bahia, foi outra convidada. Ela frisou que o mundo está cada vez mais digital e boa parte do conteúdo que é consumido é mediada pelos algoritmos, seja no trabalho, nas relações sociais ou nos estudos. “Só que a gente sabe muito pouco como essas aplicações tecnológicas funcionam ou o quanto que elas reproduzem também da sociedade. Abrir este diálogo sobre como as tecnologias afetam a sociedade e são afetadas pela sociedade é extremamente importante para que a gente possa popularizar essa conversa e trazer mais pessoas para essa discussão”, enfatizou.

Uma das fundadoras do perfil Maternidade Sapatão, Alessandra Santos de Oliveira, comentou sobre como seu trabalho como criadora de conteúdo é afetado pelos algoritmos. “Eu e minha companheira passamos pelo racismo do algoritmo. Muitos dos nossos conteúdos têm relevância, são informativos e não têm o alcance que deveriam ter. E a gente acredita que é justamente porque somos duas mães pretas, sapatonas, periféricas. E muitos perfis de dupla maternidade de mulheres brancas e que vivem em uma outra bolha e que não trazem conteúdos tão informativos quanto o nosso têm um alcance muito maior”, lamentou.

A cientista da computação, pesquisadora e ativista, Nina da Hora; o advogado e sociólogo Pedro Saliba; a advogada e coordenadora de pesquisa e pesquisadora do Instituto de Referência em Internet, Fernanda Rodrigues; e o conselheiro e coordenador da Comissão Permanente de Direito à Comunicação e Liberdade de Expressão, Admirson Medeiros Ferro Júnior, participaram de forma virtual.

Veja todas as falas na íntegra no vídeo abaixo:

Outras notícias relacionadas

Ícone de acessibilidade

Configuração de acessibilidade

Habilitar alto contraste:

Tamanho da fonte:

100%

Orientação de acessibilidade:

Acessar a página Voltar