Martin Meissner / AP
Por Norberto Andrade The Atlantic9 de junho de 2014 1Comment
Perceber se alguém está triste, feliz, ou com raiva pela maneira como ele vira para cima o nariz ou a testa tricota vem naturalmente aos seres humanos. A maioria de nós é bom em rostos de leitura. Muito bom, ao que parece.
Então o que acontece quando os computadores pegar até nós? Os recentes avanços na tecnologia de reconhecimento facial pode dar a alguém ostentando uma iteração futuro do Google Vidro a capacidade de detectar inconsistências entre o que alguém diz (em palavras) e que essa pessoa diz (com uma expressão facial). A tecnologia está superando a nossa capacidade de discernir essas nuances.
Os cientistas sempre acreditaram, que os seres humanos poderiam distinguir seis emoções básicas: felicidade, tristeza, medo, raiva, surpresa e desgosto. Mas no início deste ano, pesquisadores da Ohio State University descobriu que os seres humanos são capazes de reconhecer de forma confiável mais de 20 expressões faciais e correspondente-estados emocionais, incluindo uma vasta gama de emoções compostos como "feliz surpresa" ou "medo com raiva." Reconhecendo o tom de voz e identificar as expressões faciais são tarefas no campo da percepção, onde, tradicionalmente, os seres humanos melhores do que os computadores executam. Ou, em vez disso, este é utilizado para ser o caso. Como o software de reconhecimento facial melhora, os computadores estão ficando a borda. O estudo do estado de Ohio, quando tentada por um programa de software de reconhecimento facial, alcançada uma taxa de exactidão da ordem de 96,9 por cento para a identificação das seis emoções básicas, e 76,9 por cento no caso de os compostos emoções. Os computadores são agora hábeis em descobrir como nos sentimos.
Grande parte deste tipo de cálculo baseia-se no chamado Sistema de Ação Facial Coding (FACS), um método desenvolvido por Paul Elkman, especialista em micro-expressões faciais, durante os anos 1970 e 1980. FACS decompõe expressões emocionais em seus elementos faciais distintos. Em outras palavras, ele quebra emoções para conjuntos específicos de músculos e movimentos faciais: o alargamento dos olhos, a elevação das bochechas, a queda do lábio inferior, e assim por diante. FACS é utilizado na concepção e construção de personagens de filmes de animação. Também é usado por cientistas cognitivos para identificar genes, compostos químicos e circuitos neuronais que regulam a produção de emoções pelo cérebro. Esse mapeamento pode ser usado no diagnóstico de distúrbios como o autismo ou transtorno de estresse pós-traumático, onde há dificuldade em reconhecer emoções das expressões faciais.
Como as tecnologias de vigilância tornaram-se mais difundida, assim como aplicações de software de reconhecimento facial sofisticado. Estas tecnologias parecem estar pronto para passar do laboratório para a verdadeira vida comercializado, distribuído para as massas em qualquer número de campos, contextos e situações. Tudo isso está acontecendo num momento em que os computadores estão ficando mais espertos e inteligentes em ler emoções humanas.
Uma equipe de pesquisadores da Universidade da Califórnia, em San Diego, fundou a empresa Emotient , que usa algoritmos de aprendizado de máquina para detectar emoção. A empresa está actualmente a desenvolver um aplicativo para o Google de vidro que em breve estará no mercado, de acordo com o cientista-chefe Marian Bartlett. O aplicativo é projetado para ler as expressões emocionais das pessoas que aparecem no campo do usuário de visão em tempo real.Embora ele ainda está em fase de testes, ele pode reconhecer a felicidade, tristeza, raiva, repulsa, e até mesmo desprezo.
Uma vez que este tipo de tecnologia está disponível comercialmente, é transferível para qualquer usuário do Google Glass. E, além do reconhecimento das emoções específicas através da análise de padrões de movimentos faciais, uma outra aplicação desta nova tecnologia, testada pela equipe de Bartlett, é aquele que lhe permite distinguir falso de verdadeiras expressões emocionais. Em outras palavras, ele pode dizer se você está mentindo.
As obras de aplicativos baseados na idéia de que as expressões falsas e verdadeiras emoções envolvem diferentes mapeamentos cerebrais. Enquanto verdadeiras expressões emocionais são executadas pelo cérebro e da medula espinhal, assim como um reflexo, expressões falsos requerem um pensamento e consciente que envolve as regiões de coordenação motora do córtex cerebral. Como resultado, os movimentos faciais representativos de verdadeiros e falsos emoções acabar por ser suficientemente diferente para um sistema de computação visual para ser capaz de detectar e distingui-los. E aqui está a chave: Os computadores podem fazer essas distinções, mesmo quando os seres humanos não podem.
Após o teste, o sistema desenvolvido por Bartlett conseguiu-in-a verdadeira identificar 20 dos 46 movimentos faciais descritas no FACS, de acordo com um relatório de março por Bartlett na revista Current Biology . E, ainda mais impressionante, o sistema não só identifica, mas distingue expressões autênticas de expressões falsas com uma taxa de precisão de 85 por cento, pelo menos em laboratório, onde as condições visuais são mantidas constantes. Os seres humanos não eram tão qualificados, registrando uma taxa de precisão de cerca de 55 por cento.
Sim, Bartlett incorporado um detector de mentiras para a tecnologia de reconhecimento facial. Esta tecnologia promete pegar no ato qualquer um que tenta simular um dado emoção ou sentimento. O reconhecimento facial está a evoluir para o reconhecimento emocional, mas computadores e não apenas as pessoas, são os que decidem o que é real. (Se somarmos a detecção de voz para reconhecimento de face, vamos acabar com um pacote completo de detecção de mentira.)
Tecnologia eo direito de mentir
Assim, podemos começar a imaginar um futuro próximo em que estamos equipados com óculos que não só reconhecer rostos e vozes, mas também verdades e mentiras, um cenário que provocaria uma revolução na interação humana. Também constitui uma séria limitação à autonomia do indivíduo. Vamos começar com as implicações desta tecnologia ao nível do comportamento social e passar a analisar as implicações a nível individual.
No nível coletivo, o ocasional "mentirinha", como aquela que nos leva a dizer: "o que é um lindo bebê", quando na realidade você acha que ele é muito feio, ou que "a sopa é maravilhoso", quando na realidade você sabe que tem gosto de água sanitária, é muito mais do que uma mentira de mente elevada; é uma instituição fundamental na arte da sobrevivência social e convivência. Por trás dessas pequenas, mas estratégicas falsidades esconder convenções sociais críticos. A declaração do protocolo quasi "devemos fazer o almoço em algum momento", quando o nosso desejo é o de nunca mais ver a pessoa novamente em nossa vida, ou a interjeição entusiasmado: "Eu amo o seu vestido," quando nós nunca seria pego morto vestindo-o mesmo como pijama, na verdade são elementos de cordialidade e sinais de respeito que forma e embelezar nossas interações sociais. Eles são, na maioria dos casos, bem-intencionado, e oferecido por alguém que só quer ser atencioso, respeitoso, ou simplesmente agradável. É um jogo social que todos nós jogar e isso nos serve muito bem.
No nível individual, a liberdade de não dizer a verdade é uma prerrogativa essencial da nossa autonomia como seres humanos. O que esta tecnologia põe em risco é algo que vai além da simples impossibilidade de mentir sem ser pego. Esta tecnologia representa um assalto em nosso direito à privacidade, o direito à identidade, e nosso direito à liberdade de expressão, que não abrange apenas o que nós escolhemos para dizer, mas o que escolhemos para manter a nós mesmos.
Ao torná-lo possível determinar que o que dizemos e como nos expressamos corresponde ao que efetivamente pensa e sente, vamos entrar em uma nova dimensão da violação da nossa privacidade; uma violação que ataca o aspecto mais íntimo do nosso ser: nossos pensamentos e nossos sentimentos.
Esta nova tecnologia aumenta as capacidades de vigilância de monitoramento das ações para avaliar emoções de formas que fazem um indivíduo cada vez mais vulneráveis às autoridades governamentais, os comerciantes, empresários, e toda e qualquer pessoa com quem nos relacionamos. Podemos esperar que, nesse futuro, uma nova onda de tecnologias que violam não só a privacidade das nossas ações, mas também a privacidade de nossas emoções. Não só vai ser difícil de esconder onde vamos, o que fazemos, eo que comprar, mas também o que sentimos e pensamos.
A inspeção permanente do que expressar e dizer também irá condicionar a forma como nos apresentamos, agir e quer ser visto pelos outros. Em outras palavras, a tecnologia "detector de mentiras", por violar a separação entre o pensamento e sua expressão, através da fusão das behind-the-scenes de pensamento com o centro do palco do discurso afetará irreversivelmente a nossa identidade.
Por não ser capaz de pensar uma coisa e dizer outra, a nossa identidade vai se tornar monocromática, perdendo uma boa parte da sua riqueza e diversidade. Por estar permanentemente obrigados a exprimir e divulgar o que pensamos e sentimos, sob pena de ser chamados de mentirosos, perderemos a possibilidade de criar diferentes impressões e percepções sobre as pessoas com quem interagimos; vamos perder, por exemplo, a capacidade de esconder os aspectos menos agradáveis da nossa natureza ou de inflar os aspectos mais brilhantes e atraentes de nossa personalidade. As conseqüências podem ser catastróficas; basta imaginar como uma entrevista de emprego seria, em um primeiro encontro, com esta nova geração de óculos prontos para decodificar nossas expressões e monitorar nossas sensações. Ao tornar-nos absolutamente transparente aos olhos dos outros, esta tecnologia vai condicionar o processo de construção de nossa identidade, que nos impede de usar diferentes máscaras, de nos adaptar a diferentes contextos, de jogar papéis diferentes. Nossa identidade será subjugado à pressão e tirania do escrutínio permanente dos nossos pensamentos e sentimentos.
Tão importante quanto isso é defender e promover uma sociedade baseada nos valores da verdade e da transparência, é preciso entender que, a nível individual e no que diz respeito às relações com demasiada verdade interpessoal e transparência pode ser prejudicial. Devemos defender um espaço para não-verdade, ou melhor, um espaço onde possamos viver com a nossa verdade, sem ter que expor e compartilhá-lo.
Privado da capacidade de omitir ou retocar a verdade, sob pena de ser pego por um exército de óculos inquisitoriais, a sociedade se sentiria quase inabitável. O confronto permanente com a verdade verificável vai nos tornar excessivamente cauteloso e calculista, e as pessoas suspeitas. A verdade aparente do que somos e dizer será derivado não de percepções pessoais, particulares intuições e juízos sociais, mas a partir de cálculos complexos feitos por algoritmos e cálculos com base na forma como usamos a nossa voz, transformar nosso nariz para a direita, ou inclinação nossa boca para a esquerda.
Será uma verdade mecânica e mecanizada.
Corremos o sério risco de perder, pouco a pouco, a nossa humanidade espontânea, aparecendo cada vez mais como os algoritmos predeterminados que observam e julgam-nos.
FONTE:
- http://translate.googleusercontent.com/translate_c?depth=1&hl=pt-BR&prev=/search%3Fq%3DPRISON%2BPLANET%26es_sm%3D93&rurl=translate.google.com.br&sl=en&u=http://www.nextgov.com/big-data/2014/06/computers-are-getting-better-humans-are-facial-recognition/86059/%3Foref%3Dng-HPriver&usg=ALkJrhhaaCBxaddvG0FbrBlHh3nRk4jYGg#sthash.GH6i0wCC.dpuf
0 comentários:
Postar um comentário
Faça seu comentário aqui ou deixe sua opinião.
Observação: somente um membro deste blog pode postar um comentário.