Categorias
Sem categoria

Como a Big Tech manipula a academia para evitar a regulamentação

https://outline.com/AnBKs9

A INTERCEPTAÇÃO > Anotações
Como a Big Tech manipula a academia para evitar a regulamentação
RODRIGO OCHIGAME 20 DE DEZEMBRO DE 2019
A ironia do escândalo ético envolvendo Joichi Ito, o ex-diretor do MIT Media Lab, é que ele costumava liderar iniciativas acadêmicas sobre ética. Após a revelação de seus laços financeiros com Jeffrey Epstein, o financista acusado de tráfico sexual de meninas menores de 14 anos, Ito renunciou a vários cargos no MIT, a uma cátedra visitante na Harvard Law School e aos conselhos da John D. and Catherine Fundação T. MacArthur, Fundação John S. e James L. Knight e New York Times Company.

Muitos espectadores ficam intrigados com o papel influente de Ito como um especialista em ética da inteligência artificial. Na verdade, suas iniciativas foram cruciais para estabelecer o discurso da “IA ética” que agora é onipresente na academia e na grande imprensa. Em 2016, o então presidente Barack Obama o descreveu como um “ especialista ” em IA e ética. Desde 2017, a Ito financiou muitos projetos por meio do Fundo de Ética e Governança de US $ 27 milhões do AI Fund , uma iniciativa ancorada pelo MIT Media Lab e pelo Centro Berkman Klein para Internet e Sociedade da Universidade de Harvard. Sobre o que realmente tratava toda essa conversa sobre “ética”?

Por 14 meses, trabalhei como aluno de pós-graduação pesquisador no grupo de Ito sobre ética em IA no Media Lab. Parei em 15 de agosto, imediatamente após Ito publicar seu “pedido de desculpas” inicial em relação a seus laços com Epstein, no qual ele reconheceu ter aceitado dinheiro do financiador tanto para o Media Lab quanto para os fundos de risco externos de Ito. Ito não revelou que Epstein, na época em que o dinheiro mudou de mãos, já se declarou culpado de uma acusação de prostituição infantil na Flórida, ou que Ito tomou várias medidas para ocultar o nome de Epstein dos registros oficiais, como o The New Yorker revelou mais tarde .

Inspirado pela denunciante Signe Swenson e outros que se manifestaram, decidi relatar o que vim a aprender sobre o papel de Ito na formação do campo da ética da IA, uma vez que este é um assunto de interesse público. O surgimento desse campo é um fenômeno recente, uma vez que os pesquisadores de IA anteriores não estavam muito interessados no estudo da ética. Um ex-colega do Media Lab lembra que Marvin Minsky, o falecido pioneiro da IA no MIT, costumava dizer que “um especialista em ética é alguém que tem problemas com o que quer que você tenha em mente”. (Em processos judiciais recentemente abertos, a vítima Virginia Roberts Giuffre testemunhou que Epstein a orientou a fazer sexo com Minsky.) Por que, então, os pesquisadores de IA de repente começaram a falar sobre ética?

No Media Lab, aprendi que o discurso da “IA ética”, defendido substancialmente por Ito, estava estrategicamente alinhado com um esforço do Vale do Silício que buscava evitar restrições legalmente aplicáveis de tecnologias controversas. Um grupo-chave por trás desse esforço, com o laboratório como membro, fez recomendações de políticas na Califórnia que contradiziam as conclusões da pesquisa que conduzi com vários colegas de laboratório, pesquisa que nos levou a nos opor ao uso de algoritmos de computador na decisão de prender pessoas pendentes tentativas. O próprio Ito acabaria reclamando, em reuniões privadas com executivos financeiros e de tecnologia, que as recomendações do grupo significavam “encobrir” uma espinhosa questão ética. “Eles atenuam as coisas que tentamos dizer para evitar o uso de algoritmos que não parecem funcionar bem” nas decisões de detenção,

Eu também assisti o MIT ajudar os militares dos Estados Unidos a deixar de lado as complexidades morais da guerra de drones, apresentando uma palestra superficial sobre IA e ética por Henry Kissinger, o ex-secretário de Estado e notório criminoso de guerra, e dando sugestões sobre “AI do Departamento de Defesa dos Estados Unidos Princípios Éticos ”para a guerra, que adotou algoritmos“ permissivelmente tendenciosos ”e evitou usar a palavra“ justiça ”porque o Pentágono acredita“ que as lutas não deveriam ser justas ”.

Ito não respondeu aos pedidos de comentário.

Joichi Ito, diretor do MIT Media Lab, fala durante uma coletiva de imprensa em Tóquio, Japão, na sexta-feira, 8 de julho de 2016. A Dentsu Inc., agência de publicidade dominante no Japão, lançou hoje uma empresa de marketing digital especializada Dentsu Digtial Inc.. Fotógrafo: Akio Kon / Bloomberg via Getty Images
Joichi Ito, diretor do MIT Media Lab, fala durante uma coletiva de imprensa em Tóquio, Japão, na sexta-feira, 8 de julho de 2016. A Dentsu Inc., agência de publicidade dominante no Japão, lançou hoje uma empresa de marketing digital especializada Dentsu Digtial Inc.. Fotógrafo: Akio Kon / Bloomberg via Getty Images
TI emprestou credibilidadeà ideia de que a grande tecnologia poderia policiar seu próprio uso de inteligência artificial em um momento em que a indústria enfrentava críticas crescentes e clama por regulamentação legal. Apenas em 2018, houve várias controvérsias: violação de dados privados do Facebook de mais de 50 milhões de usuários para uma empresa de marketing político contratada pela campanha presidencial de Donald Trump, revelada em março de 2018; O contrato do Google com o Pentágono para software de visão computacional para uso em zonas de combate, revelado no mesmo mês; A venda de tecnologia de reconhecimento facial da Amazon para departamentos de polícia, revelada em maio; O contrato da Microsoft com o Departamento de Imigração e Alfândega dos Estados Unidos foi revelado em junho; e a colaboração secreta da IBM com o Departamento de Polícia de Nova York para reconhecimento facial e classificação racial em imagens de videovigilância, revelada em setembro. Sob o slogan #TechWontBuildIt, milhares de trabalhadores dessas empresas organizaram protestos e circularam petições contra esses contratos. De #NoTechForICE a # Data4BlackLives, várias campanhas populares exigiram restrições legais de alguns usos de tecnologias computacionais (por exemplo, proibindo o uso de reconhecimento facial pela polícia).

Enquanto isso, as empresas tentaram mudar a discussão para se concentrar em “princípios éticos” voluntários, “práticas responsáveis” e ajustes técnicos ou “salvaguardas” enquadradas em termos de “parcialidade” e “justiça” (por exemplo, exigir ou encorajar a polícia a adotar Reconhecimento facial “imparcial” ou “justo”). Em janeiro de 2018, a Microsoft publicou seus “princípios éticos” para IA, começando com “justiça”. Em maio, o Facebook anunciou seu “compromisso com o desenvolvimento ético e implantação da IA” e uma ferramenta de “busca por preconceitos” chamada “Fairness Flow”. Em junho, o Google publicou suas “práticas responsáveis” para pesquisa e desenvolvimento de IA. Em setembro, a IBM anunciou uma ferramenta chamada “AI Fairness 360”, projetada para “verificar se há tendências indesejadas em conjuntos de dados e modelos de aprendizado de máquina”. Em janeiro de 2019, o Facebook concedeu US $ 7. 5 milhões para a criação de um centro de ética em IA em Munique, Alemanha. Em março, a Amazon co-patrocinou um programa de US $ 20 milhões sobre “justiça na IA” com a US National Science Foundation. Em abril, o Google cancelou seu conselho de ética de IA apósreação contra a escolha de Kay Coles James, a presidente anti-trans da extrema direita Heritage Foundation. Essas iniciativas corporativas frequentemente citavam pesquisas acadêmicas que Ito havia apoiado, pelo menos parcialmente, por meio do fundo MIT-Harvard.

Para caracterizar a agenda corporativa, é útil distinguir entre três tipos de possibilidades regulatórias para uma dada tecnologia: (1) nenhuma regulamentação legal, deixando “princípios éticos” e “práticas responsáveis” meramente voluntários; (2) regulamentação legal moderada encorajando ou exigindo ajustes técnicos que não conflitem significativamente com os lucros; ou (3) regulamentação legal restritiva que restringe ou proíbe a implantação da tecnologia. Sem surpresa, a indústria de tecnologia tende a apoiar os dois primeiros e se opor ao último. O discurso patrocinado por corporações de “IA ética” possibilita precisamente essa posição. Considere o caso do reconhecimento facial. Este ano, as legislaturas municipais de San Francisco, Oakland e Berkeley – todas na Califórnia – mais Somerville, Massachusetts, aprovaram proibições estritas à tecnologia de reconhecimento facial. Enquanto isso, a Microsoft fez lobby em favor de uma legislação menos restritiva, exigindo ajustes técnicos, como testes de “viés”, principalmente no estado de Washington. Algumas grandes empresas podem até mesmo preferir esse tipo de regulamentação legal moderada em vez de uma total falta dela, uma vez que empresas maiores podem investir mais facilmente em equipes especializadas para desenvolver sistemas que cumpram os requisitos regulamentares.

Assim, a promoção vigorosa da “IA ética” no Vale do Silício constituiu um esforço estratégico de lobby, que envolveu a academia para se legitimar. Ito desempenhou um papel fundamental nessa confraternização acadêmico-corporativa, reunindo-se regularmente com executivos de tecnologia. O diretor inicial do fundo MIT-Harvard era o antigo “líder de política pública global” para IA no Google. Por meio do fundo, Ito e seus associados patrocinaram muitos projetos, incluindo a criação de uma conferência de destaque sobre “Justiça, Responsabilidade e Transparência” em ciência da computação; outros patrocinadores da conferência incluíram Google, Facebook e Microsoft.

Embora o esforço de lobby do Vale do Silício tenha consolidado o interesse acadêmico em “IA ética” e “algoritmos justos” desde 2016, um punhado de artigos sobre esses tópicos apareceram nos anos anteriores, mesmo que enquadrados de forma diferente. Por exemplo, os cientistas da computação da Microsoft publicaram o artigoque possivelmente inaugurou o campo da “justiça algorítmica” em 2012. Em 2016, a autora principal do artigo, Cynthia Dwork, tornou-se professora de ciência da computação em Harvard, com cargos simultâneos na faculdade de direito e na Microsoft. Quando fiz seu curso em Harvard sobre os fundamentos matemáticos da criptografia e estatística em 2017, entrevistei-a e perguntei como ela se interessou por pesquisar definições algorítmicas de justiça. Em sua conta, há muito ela se preocupava pessoalmente com a questão da publicidade discriminatória, mas os gerentes da Microsoft a incentivaram a seguir essa linha de trabalho porque a empresa estava desenvolvendo um novo sistema de publicidade online e seria economicamente vantajoso fornecer um serviço “Livre de problemas regulatórios”. (Para ser justo, Acredito que as intenções pessoais de Dwork eram honestas, apesar da captura corporativa de suas ideias. A Microsoft se recusou a comentar para este artigo.)

Após os passos iniciais do MIT e Harvard, muitas outras universidades e novos institutos receberam dinheiro da indústria de tecnologia para trabalhar na ética da IA. A maioria dessas organizações também é chefiada por atuais ou ex-executivos de empresas de tecnologia. Por exemplo, o Data & Society Research Institute é dirigido por um pesquisador da Microsoft e inicialmente financiado por uma bolsa da Microsoft; O AI Now Institute da New York University foi cofundado por outro pesquisador da Microsoft e parcialmente financiado pela Microsoft, Google e DeepMind; o Stanford Institute for Human-Centered AI é co-dirigido por um ex-vice-presidente do Google; A Divisão de Ciências de Dados da Universidade da Califórnia, em Berkeley, é chefiada por um veterano da Microsoft; e o MIT Schwarzman College of Computing é dirigido por um membro do conselho da Amazon. Durante meu tempo no Media Lab,

Comp-7-for-spot-2-1576795206
O dinheiro e a direção da grande tecnologia se mostraram incompatíveis com uma exploração honesta da ética, pelo menos a julgar pela minha experiência com a “Parceria em IA para Beneficiar Pessoas e Sociedade”, um grupo fundado pela Microsoft, Google / DeepMind, Facebook, IBM e Amazon em 2016. O PAI, do qual o Media Lab é membro, define-se como um “organismo multissetorial” e afirma que “não é uma organização de lobby”. Em uma audiência de abril de 2018 no Comitê de Supervisão e Reforma do Governo dos Estados Unidos, o diretor executivo da Parceria afirmou que a organização é apenas “um recurso para formuladores de políticas – por exemplo, na realização de pesquisas que informam as melhores práticas de IA e explorando as consequências sociais de certos Sistemas de IA, bem como políticas em torno do desenvolvimento e uso de sistemas de IA. ”

Mas mesmo que as atividades da Parceria não atendam ao limite legal que exige o registro como lobistas – por exemplo, ao buscar afetar diretamente os votos de funcionários eleitos individuais – a parceria certamente buscou influenciar a legislação. Por exemplo, em novembro de 2018, a equipe da Partnership pediu aos membros acadêmicos que contribuíssem para uma declaração coletiva ao Conselho Judicial da Califórnia a respeito de um projeto de lei do Senado sobre a reforma penal (SB 10). O projeto de lei, ao eliminar a fiança em dinheiro, expandiu o uso da avaliação de risco algorítmica na tomada de decisão pré-julgamento e exigiu que o Conselho Judicial “tratasse da identificação e mitigação de qualquer viés implícito nos instrumentos de avaliação”. A equipe da Partnership escreveu,

Em dezembro de 2018, três colegas do Media Lab e eu levantamos sérias objeções aos esforços da Parceria para influenciar a legislação. Observamos que as recomendações da política da Parceria estão alinhadas de forma consistente com a agenda corporativa. No caso penal, nossa pesquisa nos levou a nos opor fortemente à adoção de ferramentas de avaliação de risco e a rejeitar os ajustes técnicos propostos que supostamente os tornariam “imparciais” ou “justos”. Mas o esboço da declaração da Parceria parecia, como um colega colocou em um e-mail interno para Ito e outros, para “validar o uso de RA [avaliação de risco], enfatizando o problema como técnico que pode, portanto, ser resolvido com melhores conjuntos de dados, etc. ” Um segundo colega concordou que a “declaração PAI é fraca e corre o risco de fazer exatamente o que temos alertado contra: o risco de legitimação por meio desses esforços regulatórios liderados pela indústria ”. Um terceiro colega escreveu: “No que diz respeito ao trabalho da justiça criminal, o que a PAI está fazendo neste campo é bastante alarmante e também, em minha opinião, seriamente equivocado. Concordo com o Rodrigo que a associação do PAI com a ACLU, MIT e outras instituições acadêmicas / sem fins lucrativos praticamente acaba cumprindo uma função de legitimação. Nem a ACLU, nem o MIT, nem qualquer organização sem fins lucrativos têm qualquer poder no PAI. ”

Pior, parecia haver uma incompatibilidade entre as recomendações da Partnership e os esforços de uma coalizão de organizações de base que lutam contra a expansão da prisão, incluindo o movimento Black Lives Matter, o grupo abolicionista da prisão Critical Resistance (onde me ofereci) e os indocumentados e queer / Coalizão de Jovens Imigrantes liderada por jovens trans. A coalizão de base argumentou: “A noção de que qualquer instrumento de avaliação de risco pode explicar o preconceito ignora as disparidades raciais nas práticas de policiamento atuais e passadas”. Existem abundantes razões teóricas e empíricas para apoiar esta afirmação, uma vez que as avaliações de risco são normalmente baseadas em dados de prisões, condenações ou encarceramentos, todos os quais são indicadores fracos de comportamentos ou predisposições individuais. A coalizão continuou, “Em última análise, ferramentas de avaliação de risco criam um ciclo de feedback de perfil racial, prisão preventiva e condenação. A liberdade de uma pessoa não deve ser reduzida a um algoritmo. ” Por outro lado, a declaração da Parceria enfocou “requisitos mínimos para implantação responsável”, abrangendo tópicos como “viés de validade e amostragem de dados, viés em previsões estatísticas; escolha dos alvos apropriados para previsão; questões de interação humano-computador; treinamento de usuário; política e governança; transparência e revisão; reprodutibilidade, processo e manutenção de registros; e avaliação pós-implantação. ” ”Abrangendo tópicos como“ viés de validade e amostragem de dados, viés em previsões estatísticas; escolha dos alvos apropriados para previsão; questões de interação humano-computador; treinamento de usuário; política e governança; transparência e revisão; reprodutibilidade, processo e manutenção de registros; e avaliação pós-implantação. ” ”Abrangendo tópicos como“ viés de validade e amostragem de dados, viés em previsões estatísticas; escolha dos alvos apropriados para previsão; questões de interação humano-computador; treinamento de usuário; política e governança; transparência e revisão; reprodutibilidade, processo e manutenção de registros; e avaliação pós-implantação. ”

Para ter certeza, a equipe da Parceria respondeu às críticas ao rascunho observando na versão final da declaração que “dentro dos membros do PAI e da comunidade de IA mais ampla, muitos especialistas sugerem que os indivíduos nunca podem ser detidos com justiça com base em seus pontuação de avaliação de risco sozinha, sem uma audição individualizada. ” Esta concessão mansa – admitindo que pode não ser hora de começar a prender pessoas com base estritamente em software, sem a entrada de um juiz ou qualquer outro processo judicial “individualizado” – foi mais fácil de fazer porque nenhuma das principais empresas da Parceria vende avaliação de risco ferramentas para a tomada de decisão pré-julgamento; não só a tecnologia é muito controversa, mas também o mercado é muito pequeno. (A tecnologia de reconhecimento facial, por outro lado, tem um mercado muito maior no qual Microsoft, Google, Facebook, IBM,

Em dezembro de 2018, meus colegas e eu instamos Ito a encerrar a parceria. Argumentei: “Se organizações acadêmicas e sem fins lucrativos querem fazer a diferença, a única estratégia viável é encerrar o PAI, fazer uma declaração pública e formar uma contra-aliança”. Então, um colega propôs: “há muitas outras organizações que estão fazendo um trabalho muito mais substancial e transformador nesta área de análise preditiva na justiça criminal – como seria receber o dinheiro que atualmente alocamos para apoiar o PAI a fim de apoiar seus trabalhar?” Acreditamos que Ito tinha autonomia suficiente para fazer isso porque o fundo MIT-Harvard era amplamente financiado pela Knight Foundation, embora a maior parte do dinheiro viesse de investidores em tecnologia Pierre Omidyar, fundador do eBay, via Omidyar Network, e Reid Hoffman, co -fundador do LinkedIn e membro do conselho da Microsoft. Escrevi, “Se dezenas de milhões de dólares de fundações sem fins lucrativos e doadores individuais não forem suficientes para nos permitir assumir uma posição ousada e nos juntarmos ao lado certo, não sei o que seria.” (Omidyar financia The Intercept.)

Ito reconheceu o problema. Ele acabara de receber uma mensagem de David M. Siegel, copresidente do fundo de hedge Two Sigma e membro da MIT Corporation. Siegel propôs uma estrutura autorregulatória para empresas de “busca e mídia social” no Vale do Silício, modelada após a Autoridade Reguladora da Indústria Financeira, ou FINRA, uma corporação privada que atua como uma organização autorregulatória para corretoras de valores em Wall Street. Ito respondeu à proposta de Siegel: “Não acho que a sociedade civil esteja bem representada nos grupos da indústria. Temos participado do Partnership in AI e eles atenuam as coisas que tentamos dizer para evitar o uso de algoritmos que não parecem funcionar bem como pontuações de risco para fiança pré-julgamento. Acho que com os dados pessoais e as redes sociais, tenho preocupações com a autorregulação. Por exemplo, um genocídio total [de Rohingya, um grupo minoritário de maioria muçulmana em Mianmar] aconteceu usando o What’s App e o Facebook sabia que isso estava acontecendo. ” (O Facebook temadmitiu que sua plataforma foi usada para incitar à violência em Mianmar; reportagens documentaram como o conteúdo da plataforma do Facebook facilitou um genocídio no país, apesar dos repetidos avisos aos executivos do Facebook de ativistas e pesquisadores de direitos humanos. O serviço de mensagens de texto do Facebook, WhatsApp, dificultou o encaminhamento de mensagens de seus usuários depois que o WhatsApp foi supostamente usado para espalhar informações incorretas durante as eleições na Índia.)

Mas as alianças acadêmico-corporativas eram muito robustas e convenientes. O Media Lab permaneceu na Partnership e Ito continuou a confraternizar com executivos e investidores do Vale do Silício e Wall Street. Ito descreveu Siegel, um bilionário, como um “financiador em potencial”. Com essas pessoas, eu vi Ito expressar rotineiramente preocupações morais sobre seus negócios – mas de uma maneira amigável, já que ele estava simultaneamente pedindo dinheiro a eles, seja para o MIT ou para seus próprios fundos de capital de risco. Para os “eticistas” acadêmicos corporativos, a crítica amigável pode servir como alavanca para entrar em relacionamentos de negócios. Siegel respondeu a Ito: “Terei prazer em falar mais sobre esse assunto com você. Finra não é um grupo industrial. É pago apenas pela indústria. Vou explicar mais quando nos encontrarmos. Eu concordo com suas preocupações. ”

Em reuniões privadas, Ito e executivos de tecnologia discutiram o lobby corporativo com bastante franqueza. Em janeiro, meus colegas e eu participamos de uma reunião com Mustafa Suleyman, co-presidente fundador da Parceria e co-fundador da DeepMind, uma startup de IA adquirida pelo Google por cerca de US $ 500 milhões em 2014. Na reunião, Ito e Suleyman discutiram como a promoção da “ética da IA” havia se tornado um esforço de “branqueamento”, embora eles alegassem que suas intenções iniciais eram mais nobres. Em uma mensagem para planejar a reunião, Ito escreveu para meus colegas e para mim: “Eu sei, no entanto, por falar com Mustafa quando ele estava organizando o PAI, que ele queria que o grupo fosse muito mais substantivo e não apenas ‘branco lavando.’ Acho que é apenas seguir a trajetória que essas coisas tomam. ” (Suleyman não respondeu aos pedidos de comentários.)

R egardless do indivíduointenções dos atores, o esforço do lobby corporativo para moldar a pesquisa acadêmica foi extremamente bem-sucedido. Agora há uma enorme quantidade de trabalho sob a rubrica de “ética da IA”. Para ser justo, algumas das pesquisas são úteis e matizadas, especialmente nas ciências humanas e sociais. Mas a maioria dos trabalhos bem financiados em “IA ética” está alinhada com a agenda do lobby da tecnologia: ajustar voluntária ou moderadamente, em vez de restringir legalmente, a implantação de tecnologias controversas. Como cinco corporações, usando apenas uma pequena fração de seus orçamentos, conseguiram influenciar e enquadrar tanta atividade acadêmica, em tantas disciplinas, tão rapidamente? É estranho que Ito, sem nenhum treinamento formal, tenha se posicionado como um “especialista” em ética em IA, um campo que mal existia antes de 2017. Mas é ainda mais estranho que, dois anos depois,

ESTADOS UNIDOS – 17 DE ABRIL: Eric Schmidt, Presidente do Conselho de Inovação em Defesa, toma seu assento para a audiência do Comitê de Serviços Armados da Câmara sobre
O campo também se tornou relevante para os militares dos Estados Unidos, não apenas nas respostas oficiais às preocupações morais sobre as tecnologias de assassinato seletivo, mas também nas disputas entre firmas do Vale do Silício sobre lucrativos contratos militares. Em 1º de novembro, o conselho de inovação do Departamento de Defesa publicou suas recomendações para “Princípios de ética da IA”. O conselho é presidido por Eric Schmidt, que era o presidente executivo da Alphabet, empresa controladora do Google, quando o secretário de defesa de Obama, Ashton B. Carter, estabeleceu o conselho e o nomeou em 2016. De acordo comProPublica, “A influência de Schmidt, já forte sob Carter, só cresceu quando [James] Mattis chegou como secretário de defesa [de Trump].” O conselho inclui vários executivos do Google, Microsoft e Facebook, levantando controvérsias sobre conflitos de interesse. Uma funcionária do Pentágono responsável pelo policiamento de conflitos de interesse foi removida do conselho de inovação após desafiar “o relacionamento aconchegante do Pentágono não apenas com [CEO da Amazon, Jeff Bezos], mas também com Eric Schmidt do Google”. Esse relacionamento é potencialmente lucrativo para grandes empresas de tecnologia: as recomendações de ética da IA apareceram menos de uma semana depois que o Pentágono concedeu um contrato de computação em nuvem de US $ 10 bilhões para a Microsoft, que está sendo legalmente contestado pela Amazon.

As recomendações procuram obrigar o Pentágono a aumentar os investimentos militares em IA e a adotar sistemas de “IA ética”, como os desenvolvidos e vendidos por empresas do Vale do Silício. O conselho de inovação chama o Pentágono de “organização profundamente ética” e se oferece para estender sua “estrutura ética existente” para IA. Para tanto, o conselho cita os grupos de pesquisa de ética em IA do Google, Microsoft e IBM, bem como acadêmicos patrocinados pelo fundo MIT-Harvard. No entanto, existem ressalvas. Por exemplo, o conselho observa que embora “o termo ‘justiça’ seja frequentemente citado na comunidade de IA,” as recomendações evitam esse termo por causa do “mantra DoD de que as lutas não devem ser justas, já que o DoD visa criar as condições para manter uma vantagem injusta sobre quaisquer adversários em potencial. ” Assim, “algumas aplicações serão permissíveis e justificadamente tendenciosas, ”Especificamente“ para atingir certos combatentes adversários com mais sucesso. ” A concepção do Pentágono sobre a ética da IA exclui muitas possibilidades importantes para a deliberação moral, como a proibição de drones para assassinatos seletivos.

Os proponentes corporativos, acadêmicos e militares da “IA ética” têm colaborado estreitamente para benefício mútuo. Por exemplo, Ito me disse que aconselhou informalmente Schmidt sobre quais eticistas acadêmicos de IA a fundação privada de Schmidt deveria financiar. Certa vez, Ito até me pediu um conselho de segunda ordem sobre se Schmidt deveria financiar um certo professor que, como Ito, mais tarde serviu como um “consultor especialista” para o conselho de inovação do Pentágono. Em fevereiro, Ito se juntou a Carter em um painel intitulado “Computação para as pessoas: ética e IA”, que também incluiu executivos e ex-executivos da Microsoft e do Google. O painel foi parte da celebração inaugural da faculdade de US $ 1 bilhão do MIT dedicada à IA. Outros palestrantes na celebração incluíram Schmidt em “Computing for the Marketplace”, Siegel em “How I Learned to Stop Worrying and Love Algorithms, ”E Henry Kissinger em“ How the Enlightenment Ends ”. Como Kissinger declarou a possibilidade de “um mundo que depende de máquinas alimentadas por dados e algoritmos e não governado por normas éticas ou filosóficas”, umO protesto fora do auditório do MIT chamou a atenção para os crimes de guerra de Kissinger no Vietnã, Camboja e Laos, bem como seu apoio aos crimes de guerra em outros lugares. Na era da seleção automática de alvos, quais atrocidades os militares dos EUA justificarão como governadas por normas “éticas” ou executadas por máquinas além do escopo da agência humana e da culpabilidade?

Nenhuma reivindicação defensável de “ética” pode contornar a urgência de restrições legalmente aplicáveis à implantação de tecnologias de vigilância em massa e violência sistêmica. Até que tais restrições existam, a deliberação moral e política sobre a computação permanecerá subsidiária ao imperativo lucrativo expresso pelo lema do Media Lab, “Implante ou morra”. Enquanto alguns se implantam, mesmo que ostensivamente “eticamente”, outros morrem.

https://outline.com/AnBKs9

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s