quarta-feira, 14 de maio de 2014

Agora, os militares vão construir robôs que têm moral - A Skynet vem aí.......





TECNOLOGIAROBOTS
Patrick Tucker

São robôs capazes de moral ou ético raciocínio? Não é mais apenas uma questão para professores de filosofia titulares ou diretores de Hollywood. Esta semana, é uma questão a ser posta para as Nações Unidas.

AUTOR

Patrick Tucker é editor de tecnologia de Defesa Uno. Ele também é o autor de The Naked Futuro: O que acontece em um mundo que antecipa todos os seus movimentos? (Atual, 2014). Anteriormente, Tucker foi vice-editor de The futurista, onde atuou por nove anos. A escrita de Tucker em tecnologia emergente ...Bio completa

O Escritório de Pesquisa Naval premiará $ 7,5 milhões em dinheiro da concessão ao longo de cinco anos para os pesquisadores da universidade de Tufts, Rensselaer Polytechnic Institute, Brown, Yale e Georgetown para explorar como construir um senso de certo e errado e conseqüência moral em sistemas robóticos autônomos.

"Mesmo que os sistemas não tripulados de hoje são 'mudos' em comparação com uma contraparte humana, avanços estão sendo feitos rapidamente para incorporar mais automação em um ritmo mais rápido do que vimos antes", Paulo Bello, diretor do programa de ciência cognitiva no Escritório de Pesquisa Naval contou Defesa One . "Por exemplo, os carros de auto-condução do Google são legais e em uso em vários estados neste momento. Conforme os pesquisadores, estamos brincando de pegar a tentar descobrir as implicações éticas e legais. Nós não queremos ser apanhados semelhante surpresa em qualquer tipo de domínio militar, onde vidas estão em jogo. "

O exército dos Estados Unidos proíbe letais robôs totalmente autônomos. E robôs semi-autônomos não pode "selecionar e engajar alvos individuais ou grupos-alvo específicos que não foram previamente selecionados por um operador humano autorizado", mesmo no caso em que o contacto com o operador é cortada, de acordo com um Departamento de 2.012 Defesa directiva política .

"Mesmo que tais sistemas não estão armados, eles ainda podem ser forçados a tomar decisões morais", disse Bello. Por exemplo, em um cenário de desastre, um robô pode ser forçado a fazer uma escolha sobre quem de evacuar ou de tratar em primeiro lugar, uma situação onde um bot pode usar algum senso de raciocínio ético ou moral. "Enquanto os tipos de sistemas que prevemos ter uso muito mais amplo na primeira resposta, busca e salvamento e na área médica, não se pode levar a idéia de robôs no teatro de operações completamente fora da mesa", disse Bello.

Alguns membros da inteligência artificial, ou AI , as comunidades de ética em pesquisa e máquinas foram rápidos a aplaudir a concessão. "Com drones, define mísseis, veículos autônomos, etc, os militares é criar rapidamente sistemas que precisam para tomar decisões morais", AI pesquisador Steven Omohundro contouDefesa Uno. "As vidas humanas e bens resto sobre os resultados dessas decisões e assim é fundamental que ser feita com cuidado e com pleno conhecimento das capacidades e limitações dos sistemas envolvidos. Os militares sempre teve para definir "as regras da guerra 'e esta tecnologia é susceptível de aumentar as apostas para isso."

"Nós estamos falando sobre a colocação de robôs em mais e mais contextos em que não podemos prever o que eles vão fazer, o tipo de situações que vão encontrar. Então, eles precisam fazer algum tipo de raciocínio ético a fim de resolver através de várias opções ", disse Wendell Wallach, o presidente da Yale Tecnologia e Ética do Grupo de Estudos e autor do livro Moral Machines: Teaching Robots o certo do errado .

A sofisticação dos drones de ponta como o britânico BAE em forma de batwing Taranis de Sistemas e da Northrop Grumman X-47B revelar mais auto-direção rastejando em sistemas cada vez mais fortemente armados. O X-47B, Wallach disse, é "enorme e ele faz um monte de coisas de forma autônoma."


Mas como você codificar algo tão abstrato como lógica moral em um monte de transistores? A grande abertura do problema é por isso que a abordagem do quadro é importante, diz Wallach. Alguns tipos de moralidade são mais básicas, portanto, mais capaz de código, do que outros.

"Não há moralidade operacional, moralidade funcional e agência moral completo", disse Wallach. "Moralidade operacional é o que você já começa quando o operador pode discernir todas as situações que o robô pode vir abaixo e programa em respostas adequadas ... moralidade funcional é o lugar onde o robô começa a mover-se em situações em que o operador não pode sempre prever o que [o robot] vai encontrar e [o robô] vai precisar de trazer algum tipo de raciocínio ético de suportar. "

É um nó grosso de perguntas para trabalhar. Mas, Wallach diz, com um elevado potencial para transformar o campo de batalha.

"Um dos argumentos para [morais] robôs é que eles podem ser ainda melhor do que os seres humanos na hora de escolher um curso de ação moral, porque eles podem considerar mais cursos de ação", disse ele.

Now The Military Is Going To Build Robots That Have Morals 140514robot 

Ronald Arkin, um AI perito da Georgia Tech e autor do livro que governam o comportamento letal em robôs autônomos, é um defensor de dar máquinas uma bússola moral. "Não é a minha crença de que um sistema não tripulado poderá ser perfeitamente ético no campo de batalha, mas estou convencido de que eles podem executar mais eticamente do que os soldados humanos são capazes de", escreveu Arkin em um trabalho de pesquisa de 2007 ( PDF ). Parte da razão para isso, segundo ele, é que os robôs são capazes de seguir regras de engajamento para a letra, enquanto que os seres humanos são mais inconsistentes.

AI especialista em robótica Noel Sharkey é um detrator. Ele tem sido muito crítica de drones armados em geral. e argumentou que os sistemas de armas autônomas não se pode confiar em conformidade com o direito internacional.

"Eu não acho que eles vão acabar com um robô moral ou ética", disse Sharkey Defesa One . "Para isso, precisamos ter agência moral. Para isso, precisamos de compreender os outros e saber o que significa sofrer. O robô pode ser instalado com algumas regras de ética, mas não vai realmente importa. Seguirá idéia de um designer humano da ética ".

"O exemplo simples que tem sido dada à imprensa sobre a programação ajuda para soldados feridos é uma boa. Minha preocupação seria se [os militares] foram para estender um sistema como este para armas - armas letais autônomas onde a decisão de matar delegada a uma máquina; isso seria profundamente preocupante ", disse ele.

Esta semana, Sharkey e Arkin estão debatendo a questão de haver ou não a moralidade pode ser construído em AI sistemas antes daONU , onde eles podem encontrar um público muito simpático à idéia de que a moratória deve ser colocado sobre o desenvolvimento de robôs armados autônomos.

Christof Heyns, ONU relator especial sobre execuções extrajudiciais, sumárias ou arbitrárias para o Escritório do Alto Comissariado para os Direitos Humanos , está pedindo uma moratória. "Não há razão para acreditar que os Estados vão, entre outros, procuram usar a robótica autônomos letais para assassinato seletivo", disse Heyns em um abril 2013 relatório da ONU

Diretiva política do Departamento de Defesa sobre a autonomia letal oferece pouca tranquilidade aqui desde o departamento pode alterá-lo sem a aprovação do Congresso, a critério do presidente do Joint Chiefs of Staff e dois subsecretários de Defesa. Universidade de Denver estudioso Heather Roff, em um op-ed para o Huffington Post , chamadas que falta "desconcertante" de supervisão e observa que "colocação em campo de armas autônomas então nem sequer elevar ao nível do Secretário de Defesa, e muito menos o presidente. "

Se os investigadores podem provar que os robôs podem fazer matemática moral, mesmo que de uma forma limitada, eles podem ser capazes de difundir crescente indignação pública e desconfiança sobre veículos não tripulados armados. Mas não é uma tarefa pequena.

"Este é um problema difícil de forma significativa e não é claro que temos uma resposta para isso", disse Wallach. "Robôs domésticos e militarmente vão encontrar-se em situações em que há uma série de cursos de ações e eles vão precisar trazer alguns tipos de rotinas éticas para carregar em determinar o curso mais ético de ação. Se estamos nos movendo por este caminho de aumentar a autonomia em robótica, e isso é o mesmo que os carros do Google como o é para os robôs militares, devemos começar agora a fazer a pesquisa para o quão longe podemos chegar na garantia dos sistemas de robô são seguros e pode tomar decisões apropriadas no contexto operam. "
FONTE:
http://www.defenseone.com/technology/2014/05/now-military-going-build-robots-have-morals/84325/?oref=d-topstory
VIA: http://www.prisonplanet.com/now-the-military-is-going-to-build-robots-that-have-morals.html
Share:

0 comentários:

Postar um comentário

Faça seu comentário aqui ou deixe sua opinião.

Observação: somente um membro deste blog pode postar um comentário.

SUA LOCALIZAÇÃO, EM TEMPO REAL.

Blogger Themes

Total de visualizações de página

Seguidores deste canal

Arquivo Geral do Blog

Minha lista de Sites e Blogs Parceiros

Translate this page

Hora Certa