AI

Mesmo sob Trump, a governança da IA ​​veio para ficar

MUNDO

A IA tem sido um tema importante desde o lançamento do ChatGPT, há dois anos. Independentemente do que se pense sobre a nova administração do presidente dos EUA, Donald Trump, é importante reconhecer esta realidade: um grande impulso para uma regulamentação mais flexível da IA ​​está a caminho. Um grupo influente de figuras de Silicon Valley colocou todo o seu peso na campanha presidencial de Trump e este grupo espera que a sua agenda seja implementada. O seu mantra é libertar o desenvolvimento da IA ​​nos EUA, a fim de vencer a corrida armamentista da IA ​​com a China e proporcionar benefícios extraordinários à sociedade.

No entanto, a governação da IA, como tema de debate sério (e como questão de implementação prática), não vai desaparecer. À primeira vista, a postura da IA ​​de Trump pode parecer uma mudança de 180 graus em relação à de Biden. Certamente é em estilo retórico. Mas, na prática, as prováveis ​​políticas de IA da equipa de Trump mostram continuidades surpreendentes com as seguidas pela equipa de Biden.

É certo que não devemos minimizar a probabilidade de movimentos políticos erráticos durante os próximos quatro anos. Mas as organizações podem continuar a trabalhar em prol de um ambiente que promova a inovação em IA, ao mesmo tempo que abordam as suas consequências negativas através de medidas responsáveis ​​e adaptativas.

A primeira coisa a perceber é que a grande maioria da regulamentação que cobre a IA não é explicitamente “regulamentação da IA”. Grande parte disso é a aplicação de regras de uso geral. Por exemplo, uma ferramenta de triagem de currículos baseada em IA que prejudique candidatos de minorias ou mulheres poderia entrar em conflito com as leis antidiscriminação. Outras preocupações são o domínio do contencioso privado. Existem muitos processos judiciais de direitos autorais e privacidade contra os principais laboratórios de IA pela coleta indiscriminada de dados de treinamento, que não dependem de regulamentação específica de IA.

Mesmo que estejamos a falar de regulamentação governamental direccionada, o governo dos EUA é apenas um actor secundário. Os estados aprovaram dezenas de projetos de lei sobre IA, com centenas de outros em consideração. Apesar de serem formalmente limitadas no âmbito geográfico, essas leis podem forçar as empresas a alterar as suas práticas a nível nacional, especialmente quando se originam em grandes estados como a Califórnia. E outros governos, principalmente a União Europeia, adoptaram extensas regulamentações sobre IA para qualquer pessoa que faça negócios dentro das suas fronteiras ou com os seus cidadãos, o que afecta a maioria das grandes empresas sediadas nos EUA.

Uma mudança para a autorregulação

A realidade é que, dada a dificuldade de aprovar legislação no Congresso, a abordagem regulamentar da administração Biden à IA foi em grande parte orientada em torno da “lei não vinculativa”: infra-estruturas e incentivos para que as empresas se envolvessem elas próprias numa governação eficaz da IA. Estes esforços, como as colaborações do Instituto Nacional de Padrões e Tecnologia (NIST) com as partes interessadas da indústria em técnicas de gestão de risco de IA, provavelmente perdurarão de alguma forma, mesmo que as disposições formais da ordem executiva de Biden sobre IA sejam revogadas, como o A equipe de Trump propôs.

Na verdade, essa “auto-regulação da indústria” será o slogan da política de IA nos próximos quatro anos, posicionada como uma alternativa aos mandatos governamentais prescritivos. A verdade é que, embora existam argumentos contra regras governamentais detalhadas, ninguém sugere que a IA seja isenta de riscos. Muito menos os próprios líderes tecnológicos e os próprios executivos da IA, muitos dos quais alertam há anos que os rápidos avanços na tecnologia exigem iniciativas sérias de “segurança da IA” para evitar danos catastróficos. E quer se trate de acidentes de veículos autónomos, de adolescentes que cometem suicídio depois de se envolverem em conversas com companheiros de IA, ou de criminosos que praticam roubos e fraudes usando tecnologia deepfake, os exemplos de danos causados ​​pela IA continuam a acumular-se. Mesmo aqueles que argumentam mais veementemente que tais falhas não devem desviar a atenção dos múltiplos benefícios da IA ​​não podem descartar que merecem respostas.

É por tudo isto que a maioria dos grandes criadores de IA investiram recursos humanos e técnicos significativos em práticas de governação e responsabilidade da IA. É por isso que grupos da indústria, como a Associação Internacional de Profissionais de Privacidade e o Fórum do Futuro da Privacidade, estão migrando agressivamente para a IA e vendo uma forte demanda na indústria por coordenação para identificar melhores práticas e padrões. Como professor de uma escola de administração, vejo isso na demanda por programas de treinamento e iniciativas de pesquisa da Wharton que reúnam líderes corporativos em torno de uma IA responsável. Existem modelos de autorregulação eficaz, como o FINRA para corretores de investimentos, que podem ser aplicados ao contexto da IA.

Para ser justo, por mais valiosos que sejam os mecanismos de auto-regulação, há, em última análise, necessidade de sanções regulamentares e de regras definidas pelo governo, pelo menos como medida de apoio. As iniciativas privadas podem falhar, ou algumas empresas podem ignorá-las, criando uma corrida prejudicial para o fundo, se isso lhes conferir uma vantagem competitiva. Mas já ultrapassamos o ponto em que a alternativa à regulamentação é um “Velho Oeste” onde tudo vale para a IA. As empresas sabem que os usuários não confiarão e não adotarão essas tecnologias se continuarem enfrentando ou ouvindo falar de falhas perigosas.

Falhas espetaculares, como violações de segurança cibernética ou sistemas de IA na área da saúde que matam pacientes ao alucinarem falsas recomendações de tratamento, podem causar danos à reputação de todo o setor. É por isso que a China, concorrente da América pela supremacia da IA, tem, na verdade, uma regulamentação sobre IA mais extensa do que os EUA hoje. E com a adoção da IA ​​a espalhar-se por toda a economia, o setor da IA ​​não é apenas constituído pelas empresas tecnológicas de Silicon Valley. As empresas regulamentadas em grandes indústrias, como os serviços financeiros, os cuidados de saúde, as comunicações, a energia, os transportes e a defesa, certamente exercerão pressão para limitar os requisitos governamentais, mas compreendem o valor da governação.

Em suma, há razões para esperar que, mesmo que os aspectos externos da política de IA mudem drasticamente na segunda administração Trump, haverá uma continuidade significativa no terreno. Seria sensato que as organizações se mantivessem focadas no desenvolvimento e implementação de mecanismos de governação eficazes. Aconteça o que acontecer em Washington, os próximos quatro anos revelarão mais do potencial da IA ​​e dos seus perigos.

(Conhecimento na Wharton publicou este artigo pela primeira vez.)

As opiniões expressas neste artigo são de responsabilidade do autor e não refletem necessariamente a política editorial do Fair Observer.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *