A influência de Ai abrange o globo. Essas constelações da tecnologia, como alguns governos os rotulam, são um aspecto dinâmico e influente da sociedade de hoje. E, no entanto, os sistemas de IA e a análise de tais sistemas decorrem das tradições ocidentais e eurocêntricas. Uma conseqüência inadvertida dessa primazia dos ideais ocidentais e eurocêntricos é que a IA refletiu historicamente epistemologias coloniais e revelou o tendencioso ventre entrincheirado nas sociedades modernas. Os estimados estudiosos de dados e estudos de IA Payal Arora discute como o desenvolvimento e o impacto global dos sistemas de IA beneficiam de maneira desigual os cidadãos do Norte Global, que desfrutam de leis mais liberais e protetoras do que os países do Sul Global, cujas provisões legislativas frequentemente iliberais restringem o comportamento dos usuários e os benefícios potenciais do acesso à IA.
Observando mais profundamente o desempenho da IA, os modelos atualmente explorados em toda a cultura mundial foram treinados em dados provenientes das populações menores do mundo. Além disso, pesquisas de autores como Lisa Gitelman e Antoinette Rouvroy nos levam à conclusão não apenas que o conceito de dados “brutos” ou imparciais simplesmente não existe, mas também que os dados são sempre contextualizados para certas extremidades pragmáticas.
O Norte global tem uma vantagem injusta em relação ao desenvolvimento e implementação dos sistemas de IA. Além disso, os conjuntos de dados desenvolvidos nos quais esses sistemas dependem são obviamente tendenciosos para as culturas européias e norte -americanas. Precisamos reconhecer o surgimento de uma nova forma de colonialismo que, de acordo com Nick Canry e Ulises Mejias, explora sistemas e dados de IA como “ferramentas para explorar a vida humana para o poder e o capital”. Eles afirmam que, devido à cultura comercial das plataformas tecnológicas que se concentram na previsão comportamental, os dados do colonialismo repete a estrutura colonial tradicional da extração para o lucro, mas com os próprios dados como a mercadoria extraível.
Reagindo à revolução do chatgpt
Desde o final de 2022, a IA conquistou o mundo pela tempestade, levando a uma mídia global e um frenesi regulatório. Começou a dominar a lógica econômica de vários setores da indústria. Mas mesmo antes da revolução do chatgpt, a questão de como a IA influenciaria a sociedade, a economia, a ética, as culturas humanas e a identidade humana tem sido um objeto de um debate contraditório vibrante. Estamos apenas começando a procurar entender como a explosão de atividade baseada na IA afetará o campo dos estudos descoloniais.
Como a maioria das facetas da modernidade desde o advento da revolução industrial, a IA não é imune aos remanescentes da lógica e da cultura colonialistas. O trabalho do semiótico Walter Mignolo sobre o tema da descolonialidade pode oferecer algumas orientações. Em sua discussão sobre colonialidade e descolonização, Mignolo levanta pontos pertinentes que podem servir como pano de fundo para a análise descolonial contínua da IA. Podemos começar reconhecendo as agendas epistêmicas e em forma de vida ao mundo por trás de Praxes Colonial. Mignolo insiste que as suposições e regulamentos dos sistemas ocidentais de pensamento devem ser desafiados se esperamos superar os modelos coloniais de pensamento.
Hoje, a IA, como existe, diminui claramente o que os antropólogos e etnologistas reconhecem como sistemas de conhecimento indígenas (IKs). Isso inclui estruturas perceptivas e interpretativas indígenas para entender o mundo. O desenvolvimento e a integração do IKS é uma alta prioridade das práticas descolonizadoras, que os modelos de IA não refletem abertamente. Consequentemente, o modelo dominante da inteligência algorítmica da IA atualmente disponível reifica e perpetua uma metodologia eurocêntrica e inconscientemente a impõe à diversidade de culturas humanas.
O trabalho de Mignolo discute como a colonialidade forma a corrente escura da modernidade. A alegação mais impressionante de Mignolo, no entanto, é que a colonialidade foi fundamental para o desenvolvimento da modernidade. Da mesma forma, podemos afirmar que a corrente escura das tecnologias de IA se reflete na infraestrutura global que impulsiona a IA e os relacionamentos desiguais que as pessoas de vários países formam com ela. Assim como a colonialidade foi fundamental para a modernidade, certas desigualdades de infraestrutura também foram fundamentais para esses sistemas. Os sistemas de IA exigem muitos dados para treinar, e esses dados geralmente são tendenciosos para indivíduos de passações brancas ou brancas. Além disso, os primeiros sistemas de IA classificaram os negros como gorilas e não reconheceram tons de pele preta nas câmeras. Essa deturpação das minorias por tecnologias reflete vieses invisíveis que se manifestam em tecnologias de IA.
A força de trabalho oculta AI
Por trás de todos os modelos ou chatbot de IA elegantes, encontra -se uma rede global de trabalho humano que permanece amplamente invisível e mal remunerado. Enquanto o desenvolvimento intelectual da IA está centrado nos centros de tecnologia do norte global, grande parte do trabalho que faz com que esses sistemas funcionem são realizados por pessoas no sul global. Isso inclui o trabalho muitas vezes traumático de rotular conteúdo prejudicial ou explícito, para que os modelos de IA saibam o que evitar.
No início de 2023, surgiram relatos de que o OpenAI havia terceirizado as tarefas de moderação de conteúdo para o ChatGPT para os trabalhadores de dados no Quênia. O trabalho deles? Preveie o material profundamente perturbador – variando de discurso de ódio e insultos raciais a descrições gráficas de violência sexual – para ajudar a treinar a IA para não produzi -la. Esses trabalhadores relataram ter sofrido sofrimento e esgotamento psicológico, enquanto ganhavam menos de US $ 2 por hora. Histórias semelhantes surgiram da Ásia e da América Latina, onde os anotadores de dados operam longe dos olhos do público – e ainda mais longe das proteções legais e direitos do local de trabalho desfrutados pelos trabalhadores no Vale do Silício.
Esta não é uma falha no sistema. Faz parte do sistema. A mesma lógica que uma vez impulsionou a extração colonial das matérias -primas está agora impulsionando a extração do trabalho cognitivo e emocional de populações vulneráveis. Trabalho barato, falta de regulamentação e precaridade econômica tornam o sul global um back-end ideal para os motores de IA com fome de dados.
Um número crescente de empregos digitais de baixo perfil-chamado “Micro-Okork”-envolve dividir tarefas maciças em pequenas ações repetitivas. Da marcha de imagem à transcrição de áudio, este trabalho alimenta a economia da IA, mas oferece pouco em troca. Na Venezuela, por exemplo, até engenheiros altamente educados se voltaram para o Microwork depois que o colapso econômico do país deixou poucas outras opções.
Esse tipo de trabalho digital é precário por design. Os trabalhadores geralmente não sabem para quem estão trabalhando, podem ser retirados sem aviso prévio e têm pouco recurso para desafiar condições injustas. No entanto, suas contribuições são essenciais. Sem eles, os modelos de IA que alimentam mecanismos de pesquisa, ferramentas de idioma e geradores de imagens não poderiam funcionar.
A tecnologia não é neutra
Os sistemas de IA, como as sociedades que os produzem, são moldados por suas histórias e vieses. A suposição de que os dados são neutros – ou que as máquinas podem, de alguma forma, subir acima dos preconceitos humanos – é um mito perigoso. Historicamente, algumas das falhas algorítmicas mais flagrantes afetaram desproporcionalmente as pessoas de cor. Por exemplo, o software de reconhecimento facial lutou para identificar rostos não brancos. Verificou-se que um algoritmo de policiamento usado nos Estados Unidos, compos, para rotular injustamente indivíduos negros como maior risco para a reincidência.
Esses não são acidentes – são sintomas de sistemas construídos com dados tendenciosos e perspectivas estreitas. Como a IA é treinada em comportamentos, textos e imagens passados, ela pode reforçar involuntariamente estereótipos. Peça a uma IA generativa para produzir uma imagem de um “indiano” e é mais provável que você veja clichês como turbantes e representações desatualizadas de roupas tradicionais. Isso acontece porque os dados usados para treinar o modelo geralmente refletem as suposições e prioridades dos desenvolvedores no norte global.
Até o projeto arquitetônico da infraestrutura inicial, como observou o vencedor do estudioso Langdon, pode codificar o viés social – como uma ponte construída muito baixa para ônibus, excluindo efetivamente as comunidades pobres e minoritárias. A mesma lógica é segurada para a IA. Os algoritmos podem ser novos, mas as exclusões através da representação ao longo das linhas de raça, gênero e religião são familiares.
De quem é a IA, e para quem? Uma chamada para ai descolonial
À medida que os países ao redor do mundo correm para liderar o desenvolvimento da IA, as políticas nacionais estão moldando a maneira como a tecnologia é projetada, adotada e governada. Essas estratégias são frequentemente expressas na linguagem sobre ética e inovação – mas quem realmente se beneficia? Como Mignolo nos lembra, a colonialidade não é apenas sobre economia ou política. É sobre controle sobre o conhecimento, o significado e a representação. E a IA – construída com dados, impulsionada por algoritmos e moldada pela política – é agora uma das ferramentas mais poderosas para esse controle.
Se a IA deve servir uma população verdadeiramente global, devemos enfrentar as desigualdades profundas em como ela é construída, mantida e implantada. Isso significa reconhecer o trabalho oculto por trás dele. Significa construir modelos que refletem a diversidade da experiência humana, não apenas os privilegiados pela história. E isso significa criar novos espaços – tanto intelectuais quanto institucionais – para vozes do sul global se unirem e contribuam com impacto para a conversa.
Porque até que abordemos os legados coloniais incorporados na IA, o futuro que ela promete permanecerá distribuído de forma desigual.
(Lee Thompson-Kolar editou esta peça.)
As opiniões expressas neste artigo são do autor e não refletem necessariamente a política editorial do observador justo.