Física2100
Olá visitante!

Por favor, faça login ou crie uma conta se ainda não estiver registado.

Consciência Artificial

Ver o tópico anterior Ver o tópico seguinte Ir em baixo

Consciência Artificial

Mensagem por Jonas Paulo Negreiros em 19th Janeiro 2014, 11:52

Inteligência Artificial - Consciência Artificial

Computadores recebem constantemente arquivos e programas de defesa, contra vírus
e entrada de programas maliciosos.

Se os computadores viessem de fábrica com uma memória "pétrea" de princípios morais, talvez a vida dos usuários ficasse mais fácil.

Leis da Robótica


Isaac Asimov

1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal;

2ª Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei;

3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

fonte:
http://pt.wikipedia.org/wiki/Leis_da_Rob%C3%B3tica

Para os computadores pessoais, apenas mais uma:



4ª Lei: Não fazer serviço sujo.

Parece bobagem falar em "consciência artificial" para computadores, mas isto faz sentido.

Quando houve o ataque às torres gêmeas no fatídico 11 de setembro, a Administração Federal de Aviação (FAA) solicitou a criação de um programa de proteção para ser instalado nos computadores de bordo dos aviões. Com esse programa, algumas coordenadas geográficas são proibidas nas rotas de aviões, tais como coordenadas onde se encontram grandes prédios e montanhas.

Se a "consciência artificial" tem trabalhado muito pouco para a proteção da vida e privacidade dos cidadãos, infelizmente a 4a lei citada vem sendo violada constantemente.

Abaixo, um artigo da revista New Scientist, traduzido pelo excelente site "Inovação Tecnológica".

Robótica

Por que precisamos parar os robôs militares assassinos?

Da New Scientist - 24/05/2013



"Devemos nos concentrar em um tratado global que proíba a utilização de armas autônomas."[Imagem: Will Hutchinson]


O especialista em inteligência artificial, Mark Bishop, afirma que está na hora de banir a fabricação de armas que possam ser lançadas ou causar destruição sem a intervenção humana.

Nesta entrevista, ele explica porque e porque robôs matadores são uma ameaça real.

O que é a campanha Pare com os Robôs Assassinos?

É uma confederação de organizações não-governamentais e grupos de pressão agindo em defesa da proibição da produção e uso de sistemas de armas totalmente autônomos - aqueles nos quais é eliminada a capacidade de um ser humano tanto para escolher o alvo preciso, quanto para intervir na decisão final de atacar.

Quão perto estamos disso?

Já existem exemplos. Alguns, como o sistema de armas Phalanx, usado na maioria dos navios da Marinha dos EUA para detectar e atacar ameaças automaticamente, existem já há algum tempo.

Outro é o israelense Harpia, um veículo aéreo não tripulado do tipo "atire-e-esqueça", que vai procurar e destruir instalações de radar.

O que está impulsionando o desenvolvimento dessas tecnologias?

A atual estratégia militar ocidental se concentra mais nos drones do que nas forças tradicionais, mas drones controlados remotamente são vulneráveis ao sequestro. Sistemas totalmente autônomos são praticamente imunes a isso.

Eles também custam menos. Isso significa que os fabricantes vendem mais, então há um imperativo comercial para o desenvolvimento de sistemas autônomos e para que os governos os adotem.

Quais são os perigos?

Há razões para duvidar que sistemas autônomos possam julgar adequadamente a necessidade de lutar, reagir a ameaças de forma proporcional ou discriminar de maneira confiável entre combatentes e civis.

Além disso, quando você coloca complexos sistemas de software interagindo, existe um enorme potencial para consequências imprevistas.

Um exemplo claro foi visto no site Amazon em 2011, quando agentes de software elevaram o preço de um livro para mais de US$ 23 milhões.

Então, você está preocupado com a proliferação disso?

Sim. Na Coreia do Sul, os cientistas estão desenvolvendo um robô para patrulhar a fronteira com a Coreia do Norte. Se ele for adotado e se engajar em combate incorretamente ou desproporcionalmente, é fácil imaginar uma pequena incursão fronteiriça escalonando para se tornar um confronto sério.

Ainda mais assustadoramente, em 1983, durante exercícios militares dos EUA, sistemas de defesa automáticos russos detectaram falsamente um míssil, e apenas com a intervenção de um coronel russo se evitou uma guerra nuclear.

Mas o potencial de escalada fica particularmente assustador quando você tem sistemas autônomos interagindo com outros sistemas autônomos.

Os robôs não poderiam reduzir os riscos para os seres humanos?

Há um caso, apresentado por pessoas como o roboticista Ronald Arkin, em que os robôs podem fazer avaliações mais desapaixonados que soldados em sofrimento pela morte de companheiros ou em busca de vingança.

Pesquisadores criam robôs capazes de fraudar e enganar
Isto não apenas não resolve o problema do escalonamento, como também ele se sustenta apenas se os sistemas puderem decidir quando se envolver de forma confiável, avaliando a proporcionalidade das ações e discriminando os alvos com precisão.

Então o que devemos fazer?

A tecnologia por trás dos sistemas autônomos tem outros usos, tais como o sistema de guiar carros do Google. Assim, o banimento do desenvolvimento seria difícil.
Em vez disso, devemos nos concentrar em um tratado global que proíba a utilização de armas autônomas.

link:
http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=robos-militares-assassinos&id=010180130524


Última edição por Jonas Paulo Negreiros em 11th Fevereiro 2014, 20:46, editado 1 vez(es)
avatar
Jonas Paulo Negreiros
Físico Profissional
Físico Profissional

Mensagens : 1639
Idade : 63
Localização : Jundiaí, São Paulo - Brasil

http://sbtvd.anadigi.zip.net

Voltar ao Topo Ir em baixo

Re: Consciência Artificial

Mensagem por Jonas Paulo Negreiros em 11th Fevereiro 2014, 20:45

Grupo de cientistas nos EUA quer proibição de 'robôs assassinos'



Gubrud trabalha há 25 anos com organização que luta contra armas robóticas


Há mais de duas décadas, Mark Gubrud, pesquisador do Programa sobre Ciência e Segurança Global da Universidade de Princeton, nos Estados Unidos, luta pela criação de regras para o controle de armas robóticas autônomas.

Ele é membro do Comitê Internacional para o Controle de Armas Robóticas (CICAR), um grupo de ativistas, acadêmicos e intelectuais do mundo todo que tenta conseguir a proibição do uso de robôs que podem matar sem a interferência humana.

A última preocupação deste grupo é um lançamento de uma companhia de armamentos britânica, a BAE Systems: o avião de combate autônomo Taranis.

Nesta semana, a BAE Systems divulgou imagens dos primeiros voos do protótipo do Taranis, realizados em 2013. A aeronave não-tripulada é capaz de realizar missões intercontinentais, é difícil de detectar e pode atacar alvos no ar e em terra.

O drone também pode ser controlado a partir de qualquer lugar do planeta por um piloto em terra. No entanto, o Taranis também pode funcionar sozinho, sem intervenção humana.

O Ministério da Defesa britânico, que financiou parte do projeto, disse que não vai usar o Taranis no modo autônomo.

No entanto, esta questão continua preocupando Gubrud, que vê o Taranis como um novo avanço no desenvolvimento de robôs e máquinas autônomas capazes de matar sem a intervenção de humanos.

"Não está clara a razão de o Reino Unido precisar de um avião autônomo de combate furtivo no século 21. Para qual guerra ele é necessário? Que armas terá o inimigo?", questiona.

Gubrud conta que faz campanha contra o uso de armamento autônomos há 25 anos e que vê uma oposição generalizada à produção do que chama de "robôs assassinos".

"Uma pesquisa de março do ano passado (da consultoria YouGov) mostra que o público americano é majoritariamente contra as armas autônomas e apoia os esforços para proibi-las. E o interessante é que esta é a opinião predominante entre membros, ex-membros e familiares de membros das Forças Armadas (dos Estados Unidos)", disse Gubrud em entrevista à BBC Mundo.

Mais detalhes em:

http://www.bbc.co.uk/portuguese/noticias/2014/02/140207_especialista_robos_assassinos_fn.shtml

_________________
Gráviton, onde tu estás que não te encontro Razz ?
avatar
Jonas Paulo Negreiros
Físico Profissional
Físico Profissional

Mensagens : 1639
Idade : 63
Localização : Jundiaí, São Paulo - Brasil

http://sbtvd.anadigi.zip.net

Voltar ao Topo Ir em baixo

Ver o tópico anterior Ver o tópico seguinte Voltar ao Topo


Permissão deste fórum:
Você não pode responder aos tópicos neste fórum