O Facebook e o Instagram estão criando equipes internas dedicadas a estudar como seus produtos podem alcançar usuários de diferentes grupos étnicos de maneira desigual. De acordo com uma reportagem do Wall Street Journal na terça-feira (21), a nova equipe de “Inclusão e Justiça” investigará como negros, latinos e outras minorias influenciam algoritmos nos Estados Unidos.
Este é o mais recente de uma série de medidas tomadas por empresas e organizações de tecnologia dos EUA para reduzir as tensões raciais, após protestos contra a morte de George Floyd em maio.
Nos últimos meses, houve uma grande pressão interna e externa no Facebook devido ao impacto nas comunidades minoritárias e à falta de diversidade racial entre os principais líderes. De acordo com seu último relatório de diversidade, cerca de 4% dos funcionários do Facebook nos EUA são negros e apenas 3,4% deles são líderes. Os asiáticos representam cerca de 44,4% da força de trabalho e os hispânicos, 6,3%.
A empresa afirmou em comunicado à imprensa que estava conversando com grupos e especialistas em direitos civis para estudar o tópico de maneira confiável e consciente, pois a rede social não coleta dados raciais sobre seus usuários e a identificação é feita de “afinidade multicultural” baseada no consumo. A empresa teme que esse critério não seja mais tão confiável.
Nos últimos anos, houve muita conversa sobre o viés racista dos algoritmos. Um relatório do Wall Street Journal diz que a equipe do Facebook estava envolvida pelo menos até o ano passado. A empresa da época, por meio de um estudo interno, descobriu que nas contas do Instagram, onde as atividades sugerem que os usuários são negros, 50% deles têm mais probabilidade de ter seus perfis desativados do que brancos.
Outras mudanças no tec
Outras iniciativas focadas em questões raciais estão em andamento no setor há algum tempo e assumiram mais poder com o Black Lives coisa) Microsoft, Linux, Google e Twitter, entre outros, começaram a substituir em seus termos de código-fonte que são considerados racistas e sensíveis, como “”escravo” (escravo), ” mestre ” (mestre), ”lista negra” (lista negra) e ”Branco uma lista” (Lista branca).
As primeiras mudanças na terminologia de “mestre / escravo” ocorreram em 2014 com estruturas [konceptkojiobjedinjujezajedničkeprogramskekodoveunekolikoprojekataprojekta[conceitoqueunecódigosdeprogramaçãocomunsentreváriosprojetosde[konceptkojiobjedinjujezajedničkeprogramskekodoveunekolikoprojekataprojekta[conceitoqueunecódigosdeprogramaçãocomunsentreváriosprojetosdeProgramas]Drupal e django, Eles foram seguidos pela linguagem de programação Pitão em 2018. As empresas argumentam que termos como esses reforçam estereótipos e podem legitimar discursos racistas.
Mais envolvimento, afinal?
A programadora e ativista Nina da Hora observa que esses comportamentos refletem nossa sociedade. ” Essas plataformas são orientadas por dados e interações entre nós, pessoas, bem como entre nós e algoritmos. Tudo isso está acontecendo no meio de um mundo desigual e racista em que já vivemos. O avanço da tecnologia de maneira rápida e desorganizada permitiu que ela fosse usada para fazer avançar esses problemas ”, defende.
Na visão de Hor, as empresas tiveram que repensar seus modelos de negócios e formas de construir suas plataformas quando perceberam que poderiam perder uma parte do seu público. Isso também levou à criação de equipes inclusivas.
Para ela, o caminho que a empresa pode seguir pode ajudar no processo de “construção de plataformas mais inclusivas, informativas e menos violentas”, o que é positivo para usuários e profissionais que farão parte dessas equipes.