Outside the Box: Why Artificial Intelligence Needs Decolonial Studies

Por que a inteligência artificial precisa de estudos descoloniais

MUNDO

A influência de Ai abrange o globo. Essas constelações da tecnologia, como alguns governos os rotulam, são um aspecto dinâmico e influente da sociedade de hoje. E, no entanto, os sistemas de IA e a análise de tais sistemas decorrem das tradições ocidentais e eurocêntricas. Uma conseqüência inadvertida dessa primazia dos ideais ocidentais e eurocêntricos é que a IA refletiu historicamente epistemologias coloniais e revelou o tendencioso ventre entrincheirado nas sociedades modernas. Os estimados estudiosos de dados e estudos de IA Payal Arora discute como o desenvolvimento e o impacto global dos sistemas de IA beneficiam de maneira desigual os cidadãos do Norte Global, que desfrutam de leis mais liberais e protetoras do que os países do Sul Global, cujas provisões legislativas frequentemente iliberais restringem o comportamento dos usuários e os benefícios potenciais do acesso à IA.

Observando mais profundamente o desempenho da IA, os modelos atualmente explorados em toda a cultura mundial foram treinados em dados provenientes das populações menores do mundo. Além disso, pesquisas de autores como Lisa Gitelman e Antoinette Rouvroy nos levam à conclusão não apenas que o conceito de dados “brutos” ou imparciais simplesmente não existe, mas também que os dados são sempre contextualizados para certas extremidades pragmáticas.

O Norte global tem uma vantagem injusta em relação ao desenvolvimento e implementação dos sistemas de IA. Além disso, os conjuntos de dados desenvolvidos nos quais esses sistemas dependem são obviamente tendenciosos para as culturas européias e norte -americanas. Precisamos reconhecer o surgimento de uma nova forma de colonialismo que, de acordo com Nick Canry e Ulises Mejias, explora sistemas e dados de IA como “ferramentas para explorar a vida humana para o poder e o capital”. Eles afirmam que, devido à cultura comercial das plataformas tecnológicas que se concentram na previsão comportamental, os dados do colonialismo repete a estrutura colonial tradicional da extração para o lucro, mas com os próprios dados como a mercadoria extraível.

Reagindo à revolução do chatgpt

Desde o final de 2022, a IA conquistou o mundo pela tempestade, levando a uma mídia global e um frenesi regulatório. Começou a dominar a lógica econômica de vários setores da indústria. Mas mesmo antes da revolução do chatgpt, a questão de como a IA influenciaria a sociedade, a economia, a ética, as culturas humanas e a identidade humana tem sido um objeto de um debate contraditório vibrante. Estamos apenas começando a procurar entender como a explosão de atividade baseada na IA afetará o campo dos estudos descoloniais.

Como a maioria das facetas da modernidade desde o advento da revolução industrial, a IA não é imune aos remanescentes da lógica e da cultura colonialistas. O trabalho do semiótico Walter Mignolo sobre o tema da descolonialidade pode oferecer algumas orientações. Em sua discussão sobre colonialidade e descolonização, Mignolo levanta pontos pertinentes que podem servir como pano de fundo para a análise descolonial contínua da IA. Podemos começar reconhecendo as agendas epistêmicas e em forma de vida ao mundo por trás de Praxes Colonial. Mignolo insiste que as suposições e regulamentos dos sistemas ocidentais de pensamento devem ser desafiados se esperamos superar os modelos coloniais de pensamento.

Hoje, a IA, como existe, diminui claramente o que os antropólogos e etnologistas reconhecem como sistemas de conhecimento indígenas (IKs). Isso inclui estruturas perceptivas e interpretativas indígenas para entender o mundo. O desenvolvimento e a integração do IKS é uma alta prioridade das práticas descolonizadoras, que os modelos de IA não refletem abertamente. Consequentemente, o modelo dominante da inteligência algorítmica da IA ​​atualmente disponível reifica e perpetua uma metodologia eurocêntrica e inconscientemente a impõe à diversidade de culturas humanas.

O trabalho de Mignolo discute como a colonialidade forma a corrente escura da modernidade. A alegação mais impressionante de Mignolo, no entanto, é que a colonialidade foi fundamental para o desenvolvimento da modernidade. Da mesma forma, podemos afirmar que a corrente escura das tecnologias de IA se reflete na infraestrutura global que impulsiona a IA e os relacionamentos desiguais que as pessoas de vários países formam com ela. Assim como a colonialidade foi fundamental para a modernidade, certas desigualdades de infraestrutura também foram fundamentais para esses sistemas. Os sistemas de IA exigem muitos dados para treinar, e esses dados geralmente são tendenciosos para indivíduos de passações brancas ou brancas. Além disso, os primeiros sistemas de IA classificaram os negros como gorilas e não reconheceram tons de pele preta nas câmeras. Essa deturpação das minorias por tecnologias reflete vieses invisíveis que se manifestam em tecnologias de IA.

A força de trabalho oculta AI

Por trás de todos os modelos ou chatbot de IA elegantes, encontra -se uma rede global de trabalho humano que permanece amplamente invisível e mal remunerado. Enquanto o desenvolvimento intelectual da IA ​​está centrado nos centros de tecnologia do norte global, grande parte do trabalho que faz com que esses sistemas funcionem são realizados por pessoas no sul global. Isso inclui o trabalho muitas vezes traumático de rotular conteúdo prejudicial ou explícito, para que os modelos de IA saibam o que evitar.

No início de 2023, surgiram relatos de que o OpenAI havia terceirizado as tarefas de moderação de conteúdo para o ChatGPT para os trabalhadores de dados no Quênia. O trabalho deles? Preveie o material profundamente perturbador – variando de discurso de ódio e insultos raciais a descrições gráficas de violência sexual – para ajudar a treinar a IA para não produzi -la. Esses trabalhadores relataram ter sofrido sofrimento e esgotamento psicológico, enquanto ganhavam menos de US $ 2 por hora. Histórias semelhantes surgiram da Ásia e da América Latina, onde os anotadores de dados operam longe dos olhos do público – e ainda mais longe das proteções legais e direitos do local de trabalho desfrutados pelos trabalhadores no Vale do Silício.

Esta não é uma falha no sistema. Faz parte do sistema. A mesma lógica que uma vez impulsionou a extração colonial das matérias -primas está agora impulsionando a extração do trabalho cognitivo e emocional de populações vulneráveis. Trabalho barato, falta de regulamentação e precaridade econômica tornam o sul global um back-end ideal para os motores de IA com fome de dados.

Um número crescente de empregos digitais de baixo perfil-chamado “Micro-Okork”-envolve dividir tarefas maciças em pequenas ações repetitivas. Da marcha de imagem à transcrição de áudio, este trabalho alimenta a economia da IA, mas oferece pouco em troca. Na Venezuela, por exemplo, até engenheiros altamente educados se voltaram para o Microwork depois que o colapso econômico do país deixou poucas outras opções.

Esse tipo de trabalho digital é precário por design. Os trabalhadores geralmente não sabem para quem estão trabalhando, podem ser retirados sem aviso prévio e têm pouco recurso para desafiar condições injustas. No entanto, suas contribuições são essenciais. Sem eles, os modelos de IA que alimentam mecanismos de pesquisa, ferramentas de idioma e geradores de imagens não poderiam funcionar.

A tecnologia não é neutra

Os sistemas de IA, como as sociedades que os produzem, são moldados por suas histórias e vieses. A suposição de que os dados são neutros – ou que as máquinas podem, de alguma forma, subir acima dos preconceitos humanos – é um mito perigoso. Historicamente, algumas das falhas algorítmicas mais flagrantes afetaram desproporcionalmente as pessoas de cor. Por exemplo, o software de reconhecimento facial lutou para identificar rostos não brancos. Verificou-se que um algoritmo de policiamento usado nos Estados Unidos, compos, para rotular injustamente indivíduos negros como maior risco para a reincidência.

Esses não são acidentes – são sintomas de sistemas construídos com dados tendenciosos e perspectivas estreitas. Como a IA é treinada em comportamentos, textos e imagens passados, ela pode reforçar involuntariamente estereótipos. Peça a uma IA generativa para produzir uma imagem de um “indiano” e é mais provável que você veja clichês como turbantes e representações desatualizadas de roupas tradicionais. Isso acontece porque os dados usados ​​para treinar o modelo geralmente refletem as suposições e prioridades dos desenvolvedores no norte global.

Até o projeto arquitetônico da infraestrutura inicial, como observou o vencedor do estudioso Langdon, pode codificar o viés social – como uma ponte construída muito baixa para ônibus, excluindo efetivamente as comunidades pobres e minoritárias. A mesma lógica é segurada para a IA. Os algoritmos podem ser novos, mas as exclusões através da representação ao longo das linhas de raça, gênero e religião são familiares.

De quem é a IA, e para quem? Uma chamada para ai descolonial

À medida que os países ao redor do mundo correm para liderar o desenvolvimento da IA, as políticas nacionais estão moldando a maneira como a tecnologia é projetada, adotada e governada. Essas estratégias são frequentemente expressas na linguagem sobre ética e inovação – mas quem realmente se beneficia? Como Mignolo nos lembra, a colonialidade não é apenas sobre economia ou política. É sobre controle sobre o conhecimento, o significado e a representação. E a IA – construída com dados, impulsionada por algoritmos e moldada pela política – é agora uma das ferramentas mais poderosas para esse controle.

Se a IA deve servir uma população verdadeiramente global, devemos enfrentar as desigualdades profundas em como ela é construída, mantida e implantada. Isso significa reconhecer o trabalho oculto por trás dele. Significa construir modelos que refletem a diversidade da experiência humana, não apenas os privilegiados pela história. E isso significa criar novos espaços – tanto intelectuais quanto institucionais – para vozes do sul global se unirem e contribuam com impacto para a conversa.

Porque até que abordemos os legados coloniais incorporados na IA, o futuro que ela promete permanecerá distribuído de forma desigual.

(Lee Thompson-Kolar editou esta peça.)

As opiniões expressas neste artigo são do autor e não refletem necessariamente a política editorial do observador justo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *