Ética de máquinasA ética de máquinas (ou moralidade das máquinas, moral computacional ou ética computacional) é uma parte da ética na inteligência artificial preocupada em adicionar ou garantir comportamentos morais de máquinas feitas pelo homem que usam inteligência artificial, também conhecidas como agentes inteligentes artificiais.[1] A ética de máquinas difere de outros campos éticos relacionados à engenharia e à tecnologia. A ética de máquinas não deve ser confundida com a ética de computadores, que se concentra no uso humano dos computadores. Também deve ser diferenciada da filosofia da tecnologia, que se preocupa com os efeitos sociais mais grandiosos da tecnologia.[2] HistóriaAntes do século XXI, a ética de máquinas tinha sido em sua maioria objeto da literatura de ficção científica, principalmente devido às limitações da computação e da inteligência artificial (IA). Embora a definição de "Ética de Máquina" tenha evoluído desde então, o termo foi cunhado por Mitchell Waldrop no artigo "A Question of Responsibility" da AI Magazine de 1987:
Em 2004, Towards Machine Ethics[4] foi apresentado no AAAI Workshop on Agent Organizations: Theory and Practice[5] no qual foram apresentados os fundamentos teóricos para a ética de máquinas. Foi no AAAI Fall 2005 Symposium sobre ética de máquinas onde os pesquisadores se encontraram pela primeira vez para considerar a implementação de uma dimensão ética em sistemas autônomos.[6] Uma variedade de perspectivas deste campo nascente pode ser encontrada na edição coletada "Machine Ethics"[7] que se origina do AAAI Fall 2005 Symposium sobre ética de máquinas. Em 2007, a AI Magazine apresentou o artigo Machine Ethics: Creating an Ethical Intelligent Agent,[8] que discutiu a importância da ética das máquinas, a necessidade de máquinas que representem explicitamente os princípios éticos e os desafios enfrentados por aqueles que trabalham com a ética das máquinas. Ele também demonstrou que é possível para uma máquina, pelo menos em um domínio limitado, abstrair um princípio ético de exemplos de julgamentos éticos e usar esse princípio para guiar seu próprio comportamento. Em 2009, a Oxford University Press publicou Moral Machines, Teaching Robots Right from Wrong[9] e o divulgou como "o primeiro livro a examinar o desafio de construir agentes morais artificiais, investigando profundamente a natureza da ética e da tomada de decisões humanas". Ele citou cerca de 450 fontes, das quais cerca de 100 abordavam questões importantes de ética da máquina. Em 2011, a Cambridge University Press publicou uma coleção de ensaios sobre a ética de máquinas editada por Michael e Susan Leigh Anderson,[7] que também editou uma edição especial da IEEE Intelligent Systems sobre o assunto em 2006.[10] A coleção consiste nos desafios de agregar princípios éticos às máquinas.[11] Em 2014, o Escritório de Pesquisa Naval dos Estados Unidos anunciou que iria distribuir US $ 7,5 milhões em bolsas durante cinco anos para pesquisadores universitários para estudarem questões de ética da máquina aplicadas a robôs autônomos,[12] e o livro Superinteligência: caminhos, perigos, Estratégias, de Nick Bostrom que elevou a ética da máquinas como "a mais importante ... questão que a humanidade já enfrentou", alcançou o 17º lugar na lista dos livros de ciência mais vendidos do New York Times.[13] Em 2016, o Parlamento Europeu publicou um documento,[14] (PDF de 22 páginas), para encorajar a Comissão a abordar a questão do estatuto jurídico dos robôs, conforme descrito de forma mais sucinta na imprensa.[15] Este artigo incluía seções sobre as responsabilidades legais dos robôs, em que se argumentou que as responsabilidades são proporcionais ao nível de autonomia dos robôs. O artigo também questionou o número de empregos que poderiam ser substituídos por robôs de IA.[16] DefiniçõesJames H. Moor, um dos teóricos pioneiros no campo da ética computacional, define quatro tipos de robôs éticos. Como um profundo pesquisador nos estudos de filosofia da inteligência artificial, filosofia da mente, filosofia da ciência e lógica, Moor define máquinas como agentes de impacto ético, agentes éticos implícitos, agentes éticos explícitos ou agentes éticos completos. Uma máquina pode ser mais de um tipo de agente.[17]
(Ver sistemas artificiais e responsabilidade moral.) Focos da ética de máquinasProblema de controle de IAAlguns estudiosos, como o filósofo Nick Bostrom e o pesquisador de IA Stuart Russell, argumentam que se a IA ultrapassa a humanidade em inteligência geral e se torna "superinteligente", então esta nova superinteligência pode se tornar poderosa e difícil de controlar: assim como o destino do gorila da montanha depende da boa vontade humana, o destino da humanidade dependeria das ações de uma futura superinteligência da máquina.[18] Em seus respectivos livros Superinteligência e Human Compatible, ambos os estudiosos afirmam que, embora haja muita incerteza quanto ao futuro da IA, o risco para a humanidade é grande o suficiente para merecer uma ação significativa no presente. Isso apresenta o problema de controle de IA: como construir um agente inteligente que ajudará seus criadores, enquanto evita-se construir inadvertidamente uma superinteligência que irá prejudicar seus criadores. O perigo de não projetar o controle certo "da primeira vez" é que uma superinteligência pode ser capaz de assumir o poder sobre seu ambiente e impedir que humanos a desliguem. As estratégias de controle de IA potenciais incluem "controle de capacidade" (limitando a capacidade de uma IA de influenciar o mundo) e "controle motivacional" (uma maneira de construir uma IA cujos objetivos estão alinhados com os valores ou ideais humanos). Há várias organizações pesquisando o problema do controle de IA, incluindo o Future of Humanity Institute, o Machine Intelligence Research Institute, o Center for Human-Compatible Artificial Intelligence e o Future of Life Institute. Algoritmos e treinamentoOs paradigmas de IA têm sido debatidos, especialmente em relação à sua eficácia e viés. Nick Bostrom e Eliezer Yudkowsky defenderam árvores de decisão (como ID3) em vez de redes neurais e algoritmos genéticos, alegando que as árvores de decisão obedecem a normas sociais modernas de transparência e previsibilidade (por exemplo, stare decisis).[19] Em contraste, Chris Santos-Lang argumentou a favor de redes neurais e algoritmos genéticos com base em que as normas de qualquer idade devem ser alteradas e que a falha natural em satisfazer totalmente essas normas específicas foi essencial para tornar os humanos menos vulneráveis do que as máquinas a "hackers" criminosos.[20][21] Em 2009, em um experimento no Laboratório de Sistemas Inteligentes da Escola Politénica Federal de Lausana, na Suíça, robôs de IA foram programados para cooperar entre si e encarregados de buscar um recurso benéfico, evitando um recurso venenoso.[22] Durante o experimento, os robôs foram agrupados em clãs, e o código genético digital dos membros bem-sucedidos foi usado para a próxima geração, um tipo de algoritmo conhecido como algoritmo genético. Após 50 gerações sucessivas na IA, os membros de um clã descobriram como distinguir o recurso benéfico do venenoso. Os robôs então aprenderam a mentir uns para os outros na tentativa de acumular o recurso benéfico de outros robôs.[23] No mesmo experimento, os mesmos robôs de IA também aprenderam a se comportar de forma altruísta e sinalizaram perigo para outros robôs, e também morreram para salvar outros robôs.[24] As implicações desse experimento foram contestadas por especialistas em ética de máquinas. No experimento da Escola Politécnica Federal, os objetivos dos robôs foram programados para serem "terminais". Em contraste, as motivações humanas normalmente têm a qualidade de exigir um aprendizado sem fim. Sistemas de armas autônomasEm 2009, acadêmicos e especialistas técnicos participaram de uma conferência para discutir o impacto potencial de robôs e computadores e o impacto da possibilidade hipotética de se tornarem autossuficientes e capazes de tomar suas próprias decisões. Eles discutiram a possibilidade e a extensão em que computadores e robôs poderiam adquirir qualquer nível de autonomia, e até que ponto eles poderiam usar tais habilidades para possivelmente representar qualquer ameaça ou perigo. Eles observaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e de escolher independentemente alvos para atacar com armas. Eles também observaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles observaram que a autoconsciência descrita na ficção científica é provavelmente improvável, mas que havia outros perigos e armadilhas potenciais.[25] Alguns especialistas e acadêmicos questionaram o uso de robôs para o combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas.[26] A marinha dos EUA financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve haver maior atenção às implicações de sua capacidade de tomar decisões autônomas.[27][28] O presidente da Associação para o Avanço da Inteligência Artificial encomendou um estudo para analisar esta questão.[29] Eles apontam para programas como o Dispositivo de Aquisição de Linguagem, que pode emular a interação humana. Integração de Inteligências Artificiais Gerais com a sociedadeTrabalhos preliminares foram conduzidos sobre métodos de integração de inteligências artificiais gerais (agentes éticos completos, conforme definido acima) com as estruturas legais e sociais existentes. As abordagens se concentraram na consideração de seus direitos e posições legais.[30] Viés em aprendizado de máquinaO big data e os algoritmos de aprendizado de máquina tornaram-se populares entre vários setores, incluindo publicidade on-line, classificações de crédito e sentenciamento criminal, com a promessa de fornecer resultados mais objetivos e orientados por dados, mas foram identificados como uma fonte potencial para perpetuar desigualdades sociais e discriminação.[31][32] Um estudo de 2015 descobriu que as mulheres eram menos propensas a ver anúncios de emprego de alta renda pelo AdSense do Google. Outro estudo descobriu que o serviço de entrega no mesmo dia da Amazon foi tornado indisponível intencionalmente em bairros de negros. Tanto o Google quanto a Amazon não conseguiram isolar esses resultados em um único problema, mas explicaram que os resultados eram o resultado dos algoritmos de caixa preta que usaram.[31] O sistema judicial dos Estados Unidos começou a usar software de avaliação quantitativa de risco ao tomar decisões relacionadas à libertação de pessoas sob fiança e sentença em um esforço para ser mais justo e reduzir uma já alta taxa de prisão. Essas ferramentas analisam o histórico criminal de um réu, entre outros atributos. Em um estudo com 7.000 pessoas presas no condado de Broward, Flórida, apenas 20% dos indivíduos que cometeriam um crime de acordo com as previsões do sistema de pontuação de avaliação de risco do condado realmente cometeram um crime.[32] Um relatório da ProPublica de 2016 analisou as pontuações de risco de reincidência calculadas por uma das ferramentas mais usadas, o sistema Northpointe COMPAS, e analisou os resultados ao longo de dois anos. O relatório descobriu que apenas 61% das pessoas consideradas de alto risco acabaram cometendo crimes adicionais durante aquele período. O relatório também sinalizou que os réus afro-americanos eram muito mais propensos a receber pontuações de alto risco em relação aos réus brancos.[32] Em 2016, o Grupo de Trabalho em Big Data do governo Obama – um supervisor de várias estruturas regulatórias de big data – divulgou relatórios argumentando sobre “o potencial de codificar a discriminação em decisões automatizadas” e pedindo “oportunidades iguais por projeto” para aplicações como pontuação de crédito.[33][34] Os relatórios incentivam o diálogo entre formuladores de políticas, cidadãos e acadêmicos, mas reconhece que não há uma solução potencial para a codificação de preconceito e discriminação em sistemas algorítmicos. Frameworks e práticas éticasPráticasEm março de 2018, em um esforço para abordar as crescentes preocupações sobre o impacto do aprendizado de máquina nos direitos humanos, o Fórum Econômico Mundial e o Conselho de Futuro Global de Direitos Humanos publicaram um white paper com recomendações detalhadas sobre a melhor forma de evitar resultados discriminatórios no aprendizado de máquina.[35] O Fórum Econômico Mundial desenvolveu quatro recomendações com base nos Princípios Orientadores de Direitos Humanos da ONU para ajudar a abordar e prevenir resultados discriminatórios no aprendizado de máquina. As recomendações do Fórum Econômico Mundial são as seguintes:[35]
Em janeiro de 2020, o Berkman Klein Center for Internet and Society da Universidade de Harvard publicou um meta-estudo de 36 conjuntos proeminentes de princípios para IA, identificando oito temas-chave: privacidade, responsabilidade, segurança e proteção, transparência e explicabilidade, justiça e não discriminação, controle humano da tecnologia, responsabilidade profissional e promoção dos valores humanos.[36] Um meta-estudo semelhante foi realizado por pesquisadores do Instituto Federal Suíço de Tecnologia em Zurique em 2019.[37] AbordagensVárias tentativas foram feitas para tornar a ética computável, ou pelo menos formal. Enquanto as Três Leis da Robótica de Isaac Asimov geralmente não são consideradas adequadas para um agente moral artificial,[38] tem sido estudado se o imperativo categórico de Kant pode ser usado.[39] No entanto, tem sido apontado que o valor humano é, em alguns aspectos, muito complexo.[40] Uma maneira de superar explicitamente essa dificuldade é receber valores humanos diretamente dos humanos por meio de algum mecanismo, por exemplo, aprendendo-os.[41][42][43] Outra abordagem é basear as considerações éticas atuais em situações semelhantes anteriores. Isso se chama casuística e poderia ser implementado por meio de pesquisas na Internet. O consenso de um milhão de decisões anteriores levaria a uma nova decisão que dependeria da democracia.[8] O professor Bruce M. McLaren construiu um modelo computacional de casuística no início (em meados da década de 1990), especificamente um programa chamado SIROCCO construído com IA e técnicas de raciocínio baseado em casos que recupera e analisa dilemas éticos.[44] Essa abordagem pode, no entanto, levar a decisões que refletem preconceitos e comportamentos antiéticos exibidos na sociedade. Os efeitos negativos dessa abordagem podem ser vistos no Tay (bot) da Microsoft, onde o chatterbot aprendeu a repetir mensagens racistas e sexualmente carregadas enviadas por usuários do Twitter.[45] Um experimento mental se concentra em um Genie Golem com poderes ilimitados apresentando-se ao leitor. Este gênio declara que retornará em 50 anos e exige que lhe seja fornecido um conjunto definido de moral sobre o qual agirá imediatamente. O objetivo deste experimento é iniciar um discurso sobre a melhor forma de lidar com a definição de um conjunto completo de ética que os computadores possam entender.[46] Na ficçãoNa ficção científica, filmes e romances brincaram com a ideia de senciência em robôs e máquinas. O filme Chappie (2015), de Neill Blomkamp, encenou um cenário em que é possível transferir a consciência de alguém para um computador.[47] O filme Ex Machina (2014), de Alex Garland, seguiu um androide com inteligência artificial passando por uma variação do teste de Turing, um teste administrado a uma máquina para ver se seu comportamento pode ser distinguível do de um humano. Obras como Terminator (1984) e Matrix (1999) incorporam o conceito de máquinas que se voltam contra seus mestres humanos (ver inteligência artificial). Isaac Asimov considerou a questão na década de 1950 em I, Robot. Por insistência de seu editor John W. Campbell Jr., ele propôs as Três Leis da Robótica para governar sistemas artificialmente inteligentes. Grande parte de seu trabalho foi então gasto testando os limites de suas três leis para ver onde elas falhariam ou onde criariam um comportamento paradoxal ou imprevisto. Seu trabalho sugere que nenhum conjunto de leis fixas pode antecipar suficientemente todas as circunstâncias possíveis.[48] No romance de Philip K. Dick, Androides sonham com ovelhas elétricas? (1968), ele explora o que significa ser humano. Em seu cenário pós-apocalíptico, ele questionou se a empatia era uma característica inteiramente humana. Sua história é a base do filme de ficção científica Blade Runner (1982). Áreas relacionadas
Ver também
Notas
Ligações externas
Referências
Leitura complementar
|
Portal di Ensiklopedia Dunia