Por Jake Anderson
Na semana passada, a Casa Branca divulgou um relatório relatando preocupações da administração Obama sobre Big Data e inteligência artificial. Muitos proeminentes pensadores e cientistas saíram recentemente com advertências sobre os perigos da inteligência artificial sem controle. No entanto, a AI o relatório da Casa Branca se refere não é do Terminator laia - em vez disso, Obama tem preocupações sobre inteligência artificial algorítmica operando sem supervisão humana.
O relatório, "Big Data: Um Relatório sobre Sistemas Algorithmic, oportunidade e Direitos Civis", cataloga a crescente esfera de influência representado por Big Data na sociedade, incluindo o emprego, o ensino superior, e justiça criminal.
No que diz respeito ao crescimento de automação e inteligência artificial algorítmica, o relatório indica:
Como serviços baseados em dados tornam-se cada vez mais onipresente, e como chegamos a depender deles mais e mais, temos de responder às preocupações sobre preconceitos intencionais ou implícitas que podem surgir a partir de ambos os dados e os algoritmos utilizados, bem como o impacto que podem ter sobre o usuário e da sociedade. Questões de transparência surgir quando as empresas, instituições e organizações utilizam sistemas de algoritmos e processos automatizados para informar as decisões que afetam nossas vidas, como se vamos ou não se qualificar para oportunidades de crédito ou de emprego, ou que, anúncios de emprego e de habitação financeiros que vemos.
O relatório também observa como a tecnologia algorítmica poderia tanto reforçar e pôr em perigo a relação entre a aplicação da lei com as comunidades locais:
Se loops de feedback não são cuidadosamente construído, um sistema algorítmico preditivo construída desta maneira poderia perpetuar policiamento práticas que não são suficientemente sintonizadas com as necessidades da comunidade e potencialmente impedir os esforços para melhorar a confiança e segurança da comunidade. Por exemplo, sistemas de aprendizado de máquina que levem em conta passado prisões pode indicar que certas comunidades exigem mais policiamento e fiscalização, quando na verdade as comunidades podem estar mudando para melhor ao longo do tempo.
A Casa Branca diz que quer desenvolver uma estrutura para abordar essas preocupações de modo que os algoritmos de falhas não se tornar um problema socioeconômico. Os exemplos citados incluem a potencialidade de pessoas sendo negado crédito e habitação devido a informações imprecisas.O temor é que as tecnologias automatizadas e algorítmica AI implantados sem supervisão humana poderia levar a um tratamento injusto.
Há uma ironia inegável nesta posição, uma vez que a administração Obama orgulhosamente terceirizado muitos de seus ataques militares para aviões não tripulados e robôs autônomos. Apenas nos últimos dois anos, drones weaponized fizeram greves no Afeganistão, Paquistão, Iêmen e Somália .
Em suas seminais Papers Drone , o Intercept relatou cerca de 90% das pessoas mortas nesses ataques não eram os alvos pretendidos. Milhares de civis inocentes morreram por causa de drones autónomas de Obama, e sua lista de kill notório está sob escrutínio pesado para acidentes e metas equivocadas .
A conexão entre algoritmos de inteligência e de drones greves artificiais podem aparecer solto à primeira vista. Mas o princípio por trás do recente papel de Big Data é proteger os cidadãos da tecnologia fora de controle. É difícil conciliar esta preocupação com o serviço de bordo simplista a administração paga ao dano colateral decorrente de sistemas de focalização falhos.
FONTE:
0 comentários:
Postar um comentário
Faça seu comentário aqui ou deixe sua opinião.
Observação: somente um membro deste blog pode postar um comentário.