terça-feira, 11 de novembro de 2014
AI inteligencia artificial
Continuando a serie de estudos para o aperfeiçoamento do POI me deparo com um artigo do
Stephen Hawking sobre inteligencia artificial no qual ele fez a seguinte afirmação.
"Olhando para o futuro, não há limites fundamentais para o que pode ser alcançado: não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos. Uma transição explosiva é possível, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, máquinas com inteligência sobre-humana podem repetidamente melhorar o próprio design, ativando o que Vernor Vinge chamou de “singularidade” e o personagem do filme de Johnny Depp chama de “transcendência”.
Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar além da manipulação de líderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da AI depende de quem a controla, o impacto a longo prazo depende se ela pode ser de alguma forma controlada.
Então, encarando possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente vão fazer tudo possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial. Apesar de estarmos prestes a encarar o que potencialmente será a melhor ou pior coisa da história da humanidade, pouca pesquisa séria está sendo feita sobre essas questões fora de instituições sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligência de Máquina, e o Instituto de Vida Futura. Todos devíamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefícios e evitar os riscos."
Em breve buscas sobre o assunto decidir criar um pequeno artigo bom vamos lá
Atualmente partindo de um paradigma mutável podemos classificar a AI em dois tipos os racionais é os programáveis.
AI programáveis
A inteligencia artificial programável creio que a nova geração ou ate mesmos os curiosos já devem conhecer o robo ed é o maior exemplo de AI programável que temos atualmente possui uma infinita gama de respostas porem com um raciocínio limitado.
AI racional
A inteligencia artificial racional é temida por grandes pesquisadores no ramo todos já tiveram contato com filmes do gênero exterminador do futuro entre muitos outros onde as maquinas dominam o mundo a AI racional tende a aprender pensar refletir entre outros aspectos bem humanos.
Atualmente creio que não haja projetos de AI racional mutável pois ainda causa grandes medos a cientistas.
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário
............