O pesadelo do progresso: os robôs assassinos serão banidos? Pesadelo do progresso: os robôs assassinos serão banidos  Shelby Fighting Robot

Empresa Robótica Clearpath foi fundada há seis anos por três amigos da faculdade que compartilhavam a paixão por fazer coisas. Os 80 especialistas da empresa estão testando robôs cross-country como o Husky, um robô de quatro rodas usado pelo Departamento de Defesa dos Estados Unidos.

Eles também fabricam drones e até construíram um barco robótico Kingfisher. No entanto, eles definitivamente nunca construirão um: um robô que pode matar.

A Clearpath é a primeira e até agora a única empresa de robôs a se comprometer a não construir robôs assassinos. A decisão foi tomada no ano passado pelo cofundador e CTO Ryan Garipay e, de fato, até atraiu especialistas para a empresa que gostaram da postura ética única da Clearpath.

Husky

A ética das empresas de robôs Ultimamente passa para a frente. Veja, estamos com um pé no futuro, no qual haverá robôs assassinos. E ainda não estamos prontos para eles.

Claro, mais por vir um longo caminho. Os sistemas coreanos Dodam, por exemplo, estão construindo uma torre robótica autônoma chamada Super aEgis II. Ele usa câmeras termográficas e telêmetros a laser para detectar e atacar alvos a até 3 quilômetros de distância. Os EUA também estão experimentando sistemas de mísseis autônomos.

A dois passos dos "exterminadores"


Drones militares como o Predator são atualmente operados por humanos, mas Garipai diz que eles se tornarão totalmente automáticos e autônomos muito em breve. E isso o preocupa. Muito. “Sistemas de armas autônomos mortais podem sair da linha de montagem agora. Mas sistemas de armas mortais que serão feitos de acordo com padrões éticos nem estão nos planos.

Para Garipai, o problema é lei internacional. Sempre há situações na guerra em que o uso da força parece necessário, mas também pode colocar em risco pessoas inocentes. Como criar robôs assassinos que levarão decisões certas Em qualquer situação? Como podemos determinar por nós mesmos qual deve ser a solução correta?

Já estamos vendo problemas semelhantes no exemplo do transporte autônomo. Digamos que um cachorro cruze a rua. O carro-robô deve desviar para não atingir o cachorro, mas colocar em risco seus passageiros? E se não for um cachorro, mas uma criança? Ou um ônibus? Agora imagine uma zona de guerra.

“Não podemos concordar sobre como escrever um manual para um carro assim”, diz Garipay. “E agora também queremos mudar para um sistema que deve decidir independentemente se deve usar força letal ou não.”

Fazer coisas legais não é uma arma

Peter Asaro passou os últimos anos fazendo lobby pela proibição de robôs assassinos em comunidade internacional, sendo o fundador Comitê Internacional para o controle de exércitos robóticos. Ele acredita que chegou a hora de "uma proibição internacional clara de seu desenvolvimento e uso". Isso permitirá que empresas como a Clearpath continuem fazendo grandes coisas sem se preocupar que seus produtos possam ser usados ​​para violar os direitos humanos e ameaçar civis, disse ele.

Os mísseis autônomos interessam aos militares porque resolvem um problema tático. Quando os drones controle remoto, como operar em combate, não é incomum que um adversário bloqueie os sensores ou a conexão de rede para que o operador humano não possa ver o que está acontecendo ou controlar o drone.

Garipai diz que, em vez de desenvolver mísseis ou drones que possam decidir por conta própria qual alvo atacar, os militares precisam gastar dinheiro em melhores sensores e tecnologias anti-interferência.

"Por que não pegamos o investimento que as pessoas gostariam de investir para construir robôs assassinos autônomos, e não investi-los na melhoria da eficiência das tecnologias existentes? ele diz. “Se definirmos uma meta e superarmos essa barreira, podemos fazer essa tecnologia funcionar em benefício do povo, não apenas dos militares.”

Também tem havido muita conversa sobre perigo ultimamente. inteligência artificial. Elon Musk está preocupado que uma IA descontrolada possa destruir a vida como a conhecemos. No mês passado, Musk doou US$ 10 milhões para pesquisas em inteligência artificial.

Um de questões importantes sobre como a IA afetará nosso mundo é como ela se fundirá com a robótica. Alguns, como Andrew Ng, pesquisador do Baidu, temem que a próxima revolução da IA ​​tire as pessoas de seus empregos. Outros, como Garipai, temem que isso possa tirar vidas.

Garipay espera que seus colegas, cientistas e construtores de máquinas, pensem sobre o que estão fazendo. Portanto, a Clearpath Robotics ficou do lado do povo. “Embora nós, como empresa, não possamos apostar US$ 10 milhões nisso, podemos apostar em nossa reputação.”

Uma grande reunião de cientistas, líderes da indústria e ONGs lançou uma campanha para deter os robôs assassinos, dedicada a impedir o desenvolvimento de sistemas de armas autônomas de combate. Entre os inscritos estavam: Stephen Hawking, Noam Chomsky, Elon Musk e Steve Wozniak.

Esses grandes nomes chamar muita atenção e dar legitimidade ao fato de que os robôs assassinos, outrora considerados ficção científica estão realmente se aproximando rapidamente da realidade.

Um interessante estudo publicado em revista internacional os estudos culturais adotam uma abordagem diferente da ideia de "robôs assassinos" como um conceito cultural. Os pesquisadores argumentam que mesmo os robôs mais avançados são apenas máquinas, como tudo o que já foi feito pela humanidade.

“A questão é que a ideia de ‘robô assassino’ não surgiu do nada”, disse o coautor Tero Karppi, professor assistente de teoria da mídia na Universidade de Buffalo. "Isso foi precedido por métodos e tecnologias para tornar possível o pensamento e o desenvolvimento desses sistemas."

Em outras palavras, estamos preocupados com os robôs assassinos. Os autores exploram o tema dos robôs assassinos em filmes como O Exterminador do Futuro ou Eu, Robô, nos quais sugerem que, no futuro distante, os robôs acabarão escravizando a raça humana.

“Nas últimas décadas, o aumento do uso de armas não tripuladas mudou drasticamente a guerra, trazendo novos desafios humanitários e legais. Atualmente, houve um rápido progresso na tecnologia, como resultado dos esforços para desenvolver armas totalmente autônomas. Essas armas robóticas terão a capacidade de selecionar o fogo em um alvo por conta própria, sem qualquer intervenção humana”.

Os pesquisadores respondem que esses cenários distópicos alarmistas refletem uma visão de mundo "tecno-determinista", onde os sistemas tecnológicos recebem muita autonomia, o que pode se tornar destrutivo não apenas para a sociedade, mas para toda a raça humana.

Mas e se codificarmos a inteligência da máquina de tal forma que os robôs nem consigam distinguir entre um humano e uma máquina? Esta é uma ideia intrigante: se não houver "nós" e "eles", não pode haver "nós contra eles".

De fato, Karppi sugeriu que podemos controlar como as futuras máquinas pensarão nos humanos em um nível fundamental.

Se queremos fazer mudanças no desenvolvimento desses sistemas, agora é a hora. Simplesmente proíba as armas autônomas letais e resolva as causas desse dilema. Para realmente evitar o desenvolvimento de máquinas de matar autônomas.

Enquanto o primeiro-ministro Dmitry Medvedev e Arkady Volozh dirigiam o Yandex.Taxi não tripulado por Skolkovo, engenheiros militares descobriam como adaptar a tecnologia de veículos não tripulados para criar novas armas.

Na verdade, a tecnologia não é bem o que parece. O problema com toda a evolução tecnológica é que a linha entre os robôs comerciais "para toda a vida" e os robôs assassinos militares é incrivelmente tênue e não custa nada cruzar. Até agora, eles escolhem a rota do movimento e amanhã poderão escolher qual alvo destruir.

Não é a primeira vez na história que o progresso tecnológico põe em questão a própria existência da humanidade: primeiro, os cientistas criaram produtos químicos, biológicos e arma nuclear, agora - "armas autônomas", ou seja, robôs. A única diferença é que, até agora, as armas eram consideradas desumanas" destruição em massa"- isto é, não escolher quem matar. Hoje, a perspectiva mudou: muito mais imoral parece ser uma arma que matará com particular discriminação, escolhendo as vítimas a seu gosto. E se algum poder militante foi interrompido pelo fato de que, se usasse armas biológicas, todos ao redor sofreriam, então com os robôs tudo é mais difícil - eles podem ser programados para destruir um grupo específico de objetos.

Em 1942, quando o escritor americano Isaac Asimov formulou as três leis da robótica, tudo parecia emocionante, mas completamente irreal. Essas leis afirmavam que um robô não pode e não deve ferir ou matar um ser humano. E eles devem obedecer inquestionavelmente à vontade do homem, exceto nos casos em que suas ordens sejam contrárias ao imperativo acima. Agora que as armas autônomas se tornaram realidade e podem muito bem cair nas mãos de terroristas, descobriu-se que os programadores de alguma forma se esqueceram de colocar as leis de Asimov em seu software. Isso significa que os robôs podem ser perigosos e nenhuma lei ou princípio humano pode detê-los.

O míssil desenvolvido pelo próprio Pentágono detecta alvos graças a Programas, a inteligência artificial (IA) está identificando alvos para os militares britânicos e a Rússia está demonstrando tanques não tripulados. Para o desenvolvimento de sistemas robóticos e autônomos equipamento militar V varios paises fundos colossais são gastos, embora poucas pessoas queiram vê-lo em ação. Assim como a maioria dos químicos e biólogos não está interessada em que suas descobertas sejam eventualmente usadas para criar armas químicas ou biológicas, a maioria dos pesquisadores de IA não está interessada em criar armas baseadas nelas, porque então um sério clamor público prejudicaria seus programas de pesquisa.

Em seu discurso no início Assembleia Geral Nações Unidas em Nova York, 25 de setembro Secretário geral António Guterres chamou a tecnologia de IA de um “risco global”, juntamente com as mudanças climáticas e o aumento da desigualdade de renda: “Vamos chamar uma pá de pá”, disse ele. “A perspectiva de que as máquinas irão determinar quem vive é nojenta.” Guterres é provavelmente o único que pode pedir aos militares que mudem de ideia: ele já lidou com conflitos na Líbia, Iêmen e Síria e serviu como Alto Comissário para Refugiados.

O problema é que quando desenvolvimento adicional robôs tecnológicos poderão decidir quem matar. E se alguns países tiverem essas tecnologias, enquanto outros não, então andróides e drones intransigentes predeterminarão o resultado de uma batalha em potencial. Tudo isso contradiz todas as leis de Asimov ao mesmo tempo. Os alarmistas podem se preocupar seriamente que uma rede neural de autoaprendizagem fique fora de controle e mate não apenas o inimigo, mas todas as pessoas em geral. No entanto, a perspectiva de máquinas assassinas bastante obedientes não é nada otimista.

Maioria trabalho ativo no campo da inteligência artificial e aprendizado de máquina hoje não está na esfera militar, mas na esfera civil - em universidades e empresas como Google e Facebook. Mas o máximo de dessas tecnologias podem ser adaptadas para uso militar. Isso significa que uma possível proibição de pesquisa nessa área também afetará o desenvolvimento civil.

No início de outubro, a Stop the Killer Robots Campaign, uma organização não governamental dos Estados Unidos, enviou uma carta às Nações Unidas exigindo restrições legais internacionais ao desenvolvimento de armas autônomas. A ONU deixou claro que apoia esta iniciativa e, em agosto de 2017, Elon Musk e os participantes Conferência Internacional Nações Unidas sobre o uso de inteligência artificial (IJCAI). Mas, na verdade, os EUA e a Rússia se opõem a tais restrições.

Última reunião dos 70 países membros da Convenção sobre Espécies armas convencionais(sobre armas "desumanas") foi realizada em Genebra em agosto. Os diplomatas não conseguiram chegar a um consenso sobre como política global em relação à IA podem ser implementadas. Alguns países (Argentina, Áustria, Brasil, Chile, China, Egito e México) expressaram apoio à proibição legislativa do desenvolvimento de armas robóticas, França e Alemanha propuseram a introdução de um sistema voluntário de tais restrições, no entanto, Rússia, Estados Unidos , Coreia do Sul e Israel declararam que não vão limitar a pesquisa e o desenvolvimento que estão sendo realizados nessa área. Em setembro, Federica Mogherini, alta representante União Europeia para perguntas política estrangeira e política de segurança, afirmou que as armas "afetam nossa Segurança coletiva”, então a decisão sobre a questão da vida e da morte deve, em qualquer caso, permanecer nas mãos do homem.

Guerra Fria 2018

Autoridades de defesa dos EUA dizem que os Estados Unidos precisam de armas autônomas para manter sua vantagem militar sobre a China e a Rússia, que também estão investindo em pesquisas semelhantes. Em fevereiro de 2018, Donald Trump exigiu US$ 686 bilhões para a defesa nacional no próximo ano. ano fiscal. Esses custos sempre foram bastante altos e só diminuíram no governo anterior, Barack Obama. No entanto, Trump - sem originalidade - argumentou a necessidade de aumentá-los pela competição tecnológica com a Rússia e a China. Em 2016, o Pentágono orçou US$ 18 bilhões para o desenvolvimento de armas autônomas ao longo de três anos. Isso não é muito, mas aqui você precisa levar em consideração um fator muito importante.

A maioria dos desenvolvimentos no campo da IA ​​nos EUA são empresas comerciais, por isso estão amplamente disponíveis e podem ser vendidos comercialmente para outros países. O Pentágono não detém o monopólio de tecnologias avançadas de aprendizado de máquina. A indústria de defesa americana não conduz mais suas próprias pesquisas como fazia durante o " guerra Fria”, e usa as conquistas de startups do Vale do Silício, bem como da Europa e da Ásia. Ao mesmo tempo, na Rússia e na China, essas pesquisas estão sob o controle estrito dos departamentos de defesa, o que, por um lado, limita o influxo de novas ideias e o desenvolvimento de tecnologias, mas, por outro lado, garante o estado financiamento e proteção.

De acordo com os especialistas O novo York Times, gastos militares em veículos militares autônomos e drones aeronaves ultrapassar US$ 120 bilhões na próxima década. Isso significa que, em última análise, a discussão não se resume a criar armas autônomas, mas em que grau de independência dar a elas.

Hoje, não existem armas totalmente autônomas, mas o vice-presidente da Força Aérea, general Paul J. Selva, do Joint Chiefs of Staff, disse em 2016 que em 10 anos os Estados Unidos terão a tecnologia para criar essas armas que podem decidir por conta própria. quem e quando matar. E enquanto os países debatem se devem ou não limitar a IA, pode ser tarde demais.

David Domingo Jiménez compartilha os segredos de modelagem, texturização e iluminação Crazy, seu personagem robótico.

Introdução

Sempre acreditei que os projetos pessoais devem ser tão profissionais quanto os projetos de trabalho. Usando modelagem high-poly, texturas com resolução 8K, materiais realistas e iluminação tecnicamente e artisticamente bem posicionada, você pode criar um personagem único com personalidade e uma cena atmosférica. Depende muito da iluminação na obra, pois é ela que ajuda a colocar tudo na cena da maneira certa. Agradecimento especial a Victor Loba pela composição.

Passo 1: Criação do conceito

Tirei o primeiro conceito da cabeça, e como não sou um concept artist, finalizei com a ajuda de uma malha base e referências fotográficas. Escolha o fluxo de trabalho mais adequado e eficiente para você.

O pipeline com o qual trabalho é modelagem de malha básica -> modelagem high poly de todos os objetos -> criação de UV e modelagem final -> edição e texturização de UV -> material e configuração de luz -> composição final e configuração de luz -> pós

Passo 2: Modelagem, passo 1

A imagem mostra o processo de criação de um modelo de robô desde a malha básica até a escultura no ZBrush e a retopologia, como resultado obtemos uma malha com um nível de subdivisões

Depois de ter um modelo básico, começo imediatamente a trabalhar em seus detalhes, um por um, usando os comandos Extrude, Bevel, Connect Edge e Shell.

Criei a malha final usando o menor número possível de polígonos, que posteriormente aumentei. Trabalhei com o comando Editable Poly com o modificador Turbosmooth, ativando o parâmetro Show End Result no final.

Passo 3: Modelagem, passo 2

Pincéis ZBrush como Standard, Move, Smooth e ClayBuildup foram usados ​​para detalhar as roupas do robô.

claro que tem menos maneiras difíceis modelagem, permitindo a utilização de um número pequeno de polígonos, mas neste trabalho houve muitas divisões. É por isso que eu prefiro mais método rápido, embora possa não ser o mais fácil.

Eu uso o ZBrush exclusivamente para detalhar roupas com pincéis como Standard, Move, Smooth e ClayBuildup. Também é muito importante o uso de máscaras. Faço retopologia em Topogun.

Etapa 4: criar um mapa UV

Layout UV foi usado para criar os UVs. 4 mapas de textura foram criados com o mesmo tamanho e o mesmo número de polígonos

Para criar UVs, recomendo usar o UV Layout, pois é um programa estável e intuitivo. Antes de começar a cortar um objeto, é preciso lembrar que quanto menos cortes no modelo, melhor. Os modelos sempre cortam nas áreas menos visíveis para a câmera.

Para este projeto, criei 4 mapas do mesmo tamanho com o mesmo número de polígonos, agrupados da maneira mais adequada para mim, para que caibam no espaço UV da maneira mais conveniente possível. Não importa para mim como as conchas estão posicionadas no UV, pois sempre crio mapas de ID separados para materiais diferentes.

Passo 5: Texturização

Criando diferentes mapas de textura em resolução 8K

Primeiro eu crio vários cartões com resolução 8K. Especificamente para este trabalho, criei mapas de ID, AO, Deslocamento, Normal, Cavidade e Neve. Para obtê-los no 3Ds Max: Rendering -> Render Surface Map. No ZBrush, eles podem ser obtidos usando ZPlugin -> Multi Map Exporter.

Passo 6: Texturizando no Photoshop

Nesta fase, já estamos trabalhando em 4 mapas de textura com resolução de 8K

Esses mapas são usados ​​\u200b\u200bnão apenas para detalhamento de texturas, mas também são especialmente convenientes para trabalhar, pois não há necessidade de sair do Photoshop. Graças a isso, posso estimar visualmente os volumes de nosso modelo. O personagem Crazy consiste em 4 texturas de resolução 8K que correspondem aos mapas BMP e SPC.

Passo 7: Continue trabalhando nas texturas

por conseguir boas texturas precisa ser criativo e trabalhar rápido

Eu sempre trabalho com grandes texturas lado a lado porque é mais fácil reduzir o tamanho inicial da imagem, e usando máscaras é muito fácil esconder áreas indesejadas. Para obter boas texturas, você precisa ser criativo e trabalhar rápido. Neste projeto, usei fotografias.

Eu recomendaria usar ZBrush, Mudbox ou Mari para desenhar texturas em cima de sua malha. Sujeira, arranhões, ferrugem darão realismo ao modelo 3D, porém, não exagere, senão o resultado ficará péssimo. Quaisquer intervenções adicionais no modelo devem ser combinadas com o material de base, por exemplo, como no meu caso, com metal, revestimento magnético, areia e poeira, combinando esquema de cores e iluminação.

Passo 8: Preparando os Materiais

O uso de materiais permite separar visualmente diferentes partes do modelo umas das outras.

Neste trabalho, utilizei diversos materiais metálicos (aço, ferro, alumínio); plástico fosco e brilhante; assim como couro, tecido e borracha. Todos esses materiais têm apenas 3 mapas de textura atribuídos a eles: Diffuse, Specular e Bump. Não havia materiais complicados na cena, exceto a tela da TV e a lâmina de metal do machado.

Para todos os materiais, exceto Reflection Glossiness e Fresnel Reflections, para os quais números exatos, foram utilizadas informações de luz, principalmente para Fresnel IOR, bem como dados para Bump.

Etapa 9: ajuste final da luz

A configuração final da iluminação também deve iluminar a personalidade do personagem.

A configuração final da luz deve iluminar o personagem do personagem, ajustando-o favoravelmente. ambiente. Para o meu personagem, queria criar uma atmosfera agressiva. Usei iluminação noturna, iluminei um pouco a cena com HDRI e melhorei o efeito com "luz elétrica". Usei VRayLights para realçar os reflexos e remover o contraste extra.

Para direcionar a luz e obter uma silhueta bem lida do personagem, usei SpotLights. Além disso, o fundo foi criado usando VrayLightsMaterial, para SpotLights usei texturas, janelas e outras parafernálias para designar de alguma forma o edifício. Também usei SpotLights para iluminar toda a cena.

VrayLights foram usados ​​para melhorar os reflexos e eliminar o contraste excessivo.

Passo 10: Pós-processamento

Neste tipo de projeto, este é o mais marco. Executei a cena em um esquema de cores, enfatizei os destaques, ajustei o contraste e desfoquei algumas partes do trabalho para criar um efeito de profundidade, obrigando o espectador a focar. Todas essas etapas são muito importantes para obter bom resultado.

No Photoshop, trabalhei com Saturação, Curvas e Níveis para obter o efeito bokeh. Em seguida, configuro os mapas de textura que serão renderizados: Reflection, Alpha e Specular. Como resultado, obtemos imagem complexa que transmite emoções e história ao espectador. Com a ajuda do personagem Louco, mostro toda uma série do meu trabalho e do estilo de arte em que trabalho.

Viaje no "Yandex. Taxi" de Skolkovo, engenheiros militares descobriram como adaptar a tecnologia de veículos não tripulados para criar novas armas.

Na verdade, a tecnologia não é bem o que parece. O problema com toda a evolução tecnológica é que a linha entre os robôs comerciais "para toda a vida" e os robôs assassinos militares é incrivelmente tênue e não custa nada cruzar. Até agora, eles escolhem a rota do movimento e amanhã poderão escolher qual alvo destruir.

Não é a primeira vez na história que o progresso tecnológico põe em causa a própria existência da humanidade: primeiro, os cientistas criaram armas químicas, biológicas e nucleares, agora - "armas autónomas", ou seja, robôs. A única diferença é que, até agora, as armas de "destruição em massa" eram consideradas desumanas - ou seja, não escolhiam quem matar. Hoje, a perspectiva mudou: muito mais imoral parece ser uma arma que matará com particular discriminação, escolhendo as vítimas a seu gosto. E se algum poder militante foi interrompido pelo fato de que, se usasse armas biológicas, todos ao redor sofreriam, então com os robôs tudo é mais difícil - eles podem ser programados para destruir um grupo específico de objetos.

Em 1942, quando o escritor americano Isaac Asimov formulou as três leis da robótica, tudo parecia emocionante, mas completamente irreal. Essas leis afirmavam que um robô não pode e não deve ferir ou matar um ser humano. E eles devem obedecer inquestionavelmente à vontade do homem, exceto nos casos em que suas ordens sejam contrárias ao imperativo acima. Agora que as armas autônomas se tornaram realidade e podem muito bem cair nas mãos de terroristas, descobriu-se que os programadores de alguma forma se esqueceram de colocar as leis de Asimov em seu software. Isso significa que os robôs podem ser perigosos e nenhuma lei ou princípio humano pode detê-los.

O próprio míssil projetado pelo Pentágono detecta alvos graças a software, inteligência artificial (IA) identifica alvos para os militares britânicos e a Rússia está demonstrando tanques não tripulados. Fundos colossais são gastos no desenvolvimento de equipamentos militares robóticos e autônomos em vários países, embora poucas pessoas queiram vê-los em ação. Assim como a maioria dos químicos e biólogos não está interessada em que suas descobertas sejam eventualmente usadas para criar armas químicas ou biológicas, a maioria dos pesquisadores de IA não está interessada em criar armas baseadas nelas, porque então um sério clamor público prejudicaria seus programas de pesquisa.

Em seu discurso no início da Assembleia Geral das Nações Unidas em Nova York em 25 de setembro, o secretário-geral António Guterres chamou a tecnologia de IA de "risco global", juntamente com as mudanças climáticas e o aumento da desigualdade de renda: "Vamos chamar uma pá de pá". ele disse. “A perspectiva de que as máquinas irão determinar quem vive é nojenta.” Guterres é provavelmente o único que pode pedir aos militares que mudem de ideia: ele já lidou com conflitos na Líbia, Iêmen e Síria e serviu como Alto Comissário para Refugiados.

O problema é que, com o desenvolvimento da tecnologia, os próprios robôs poderão decidir quem matar. E se alguns países tiverem essas tecnologias, enquanto outros não, então andróides e drones intransigentes predeterminarão o resultado de uma batalha em potencial. Tudo isso contradiz todas as leis de Asimov ao mesmo tempo. Os alarmistas podem se preocupar seriamente que uma rede neural de autoaprendizagem fique fora de controle e mate não apenas o inimigo, mas todas as pessoas em geral. No entanto, a perspectiva de máquinas assassinas bastante obedientes não é nada otimista.

O trabalho mais ativo na área de inteligência artificial e aprendizado de máquina hoje não está nas forças armadas, mas na esfera civil - em universidades e empresas como Google e Facebook. Mas grande parte dessa tecnologia pode ser adaptada para uso militar. Isso significa que uma possível proibição de pesquisa nessa área também afetará o desenvolvimento civil.

No início de outubro, a Stop Killer Robot Campaign, uma organização não governamental dos Estados Unidos, enviou uma carta às Nações Unidas exigindo restrições legislativas internacionais ao desenvolvimento de armas autônomas. A ONU sinalizou seu apoio à iniciativa e, em agosto de 2017, Elon Musk e a Conferência Internacional das Nações Unidas sobre Inteligência Artificial (IJCAI) aderiram. Mas, na verdade, os EUA e a Rússia se opõem a tais restrições.

A última reunião dos 70 países membros da Convenção sobre Certas Armas Convencionais (sobre armas “desumanas”) ocorreu em Genebra, em agosto. Os diplomatas não conseguiram chegar a um consenso sobre como uma política global de IA poderia ser implementada. Alguns países (Argentina, Áustria, Brasil, Chile, China, Egito e México) expressaram apoio a uma proibição legislativa do desenvolvimento de armas robóticas, França e Alemanha propuseram a introdução de um sistema voluntário de tais restrições, mas Rússia, EUA, Sul Coréia e Israel disseram que não vão limitar a pesquisa e o desenvolvimento que estão sendo feitos nessa área. Em setembro, Federica Mogherini, a principal autoridade de política externa e de segurança da União Européia, disse que as armas "afetam nossa segurança coletiva" e que a vida e a morte devem permanecer nas mãos do indivíduo de qualquer maneira.

Guerra Fria 2018

Autoridades de defesa dos EUA dizem que os Estados Unidos precisam de armas autônomas para manter sua vantagem militar sobre a China e a Rússia, que também estão investindo em pesquisas semelhantes. Em fevereiro de 2018, Donald Trump exigiu US$ 686 bilhões para a defesa nacional no próximo ano fiscal. Esses custos sempre foram bastante altos e só diminuíram com o presidente anterior, Barack Obama. No entanto, Trump - sem originalidade - argumentou a necessidade de aumentá-los pela competição tecnológica com a Rússia e a China. Em 2016, o Pentágono orçou US$ 18 bilhões para o desenvolvimento de armas autônomas ao longo de três anos. Isso não é muito, mas aqui você precisa levar em consideração um fator muito importante.

A maioria dos desenvolvimentos de IA nos EUA são feitos por empresas comerciais, portanto, estão amplamente disponíveis e podem ser vendidos comercialmente para outros países. O Pentágono não detém o monopólio de tecnologias avançadas de aprendizado de máquina. A indústria de defesa americana não conduz mais sua própria pesquisa como fazia durante a Guerra Fria, mas usa as conquistas de start-ups do Vale do Silício, bem como da Europa e da Ásia. Ao mesmo tempo, na Rússia e na China, essas pesquisas estão sob o controle estrito dos departamentos de defesa, o que, por um lado, limita o influxo de novas ideias e o desenvolvimento de tecnologias, mas, por outro lado, garante o estado financiamento e proteção.

O New York Times estima que os gastos militares com veículos militares autônomos e veículos aéreos não tripulados excederão US$ 120 bilhões na próxima década. Isso significa que, em última análise, a discussão não se resume a criar armas autônomas, mas em que grau de independência dar a elas.

Armas totalmente autônomas não existem hoje, mas o vice-presidente do Estado-Maior Conjunto, general Paul J. Selva, da Força Aérea, disse em 2016 que em 10 anos os Estados Unidos terão a tecnologia para criar essas armas que podem decidir quem e quando matar. E enquanto os países debatem se devem ou não limitar a IA, pode ser tarde demais.