Fundamentos teóricos Baseando-se em avanços nas áreas da - TopicsExpress



          

Fundamentos teóricos Baseando-se em avanços nas áreas da informática, inteligência artificial, medicina, astronomia, nanotecnologia, genética e biotecnologia, muitos estudiosos acreditam que nas próximas décadas a humanidade irá atravessar a singularidade tecnológica e é impossível prever o que acontecerá depois deste período. A aceleração do progresso científico e tecno...lógico tornou-se, nos últimos 300 anos, a característica mais marcante da história da humanidade. Desde o surgimento da ciência com Galileu Galilei, Isaac Newton e Leibniz profundas mudanças políticas e econômicas ocorreram em todos os países. Tais mudanças se fazem mais notáveis nos últimos 30 anos com a explosão da era digital e do capitalismo financeiro. Ainda não existe consenso sobre quais seriam os agentes responsáveis pela singularidade tecnológica, alguns acreditam que ela decorrerá naturalmente, como conseqüência dos acelerados avanços científicos. Outros acreditam que o surgimento iminente de supercomputadores dotados da chamada superinteligência será a base de tais avanços - argumenta-se em favor disso que somente com uma inteligência superior a humana poderíamos ter avanços científicos e tecnológicos tão rápidos e importantes. Há também quem acredite na integração homem-computador para o surgimento da superinteligência, mas a tecnologia necessária para tal pode estar mais distante de ser alcançada do que a inteligência artificial. Vários cientistas, entre eles Vernor Vinge e Raymond Kurzweil, e também alguns filósofos afirmam que a singularidade tecnológica é um evento histórico de importância semelhante ao aparecimento da inteligência humana na Terra. Outros, mais levianos, afirmam que a singularidade tecnológica é para o século XXI o que a revolução industrial foi para o século XVIII ou simplesmente que a singularidade tecnológica é na verdade a quarta revolução industrial. Estimativas Quadro representativo sobre as previsões de Gordon Moore em relação ao aumento do poder de processamento dos computadores. Para fazer uma estimativa precisa de quando exatamente a inteligência artificial conseguirá alcançar níveis superiores a inteligência humana muitos índices tem sido usados e comparados. A lei de Moore, em vigor há mais de 30 anos, segundo a qual a cada 18 meses a capacidade de processamento dos computadores dobra, enquanto os custos permanecem constantes, é extensamente usada como modelo nos estudos sobre singularidade tecnológica. No modelo de singularidade tecnológica como conseqüência natural do acelerado progresso técnico-científico vários outros índices também têm sido utilizados, dentre eles podemos destacar o número crescente de publicações científicas anuais, o número crescente de patentes registradas e a crescente concorrência econômica e industrial internacional. A maior parte daqueles que pesquisam ou discutem a singularidade tecnológica acreditam que esta possa decorrer entre os anos de 2025 e 2070, embora seja perfeitamente possível que esta demore mais a ocorrer ou, simplesmente, não ocorra. Em 2011, Kurzweil observou tendências existentes e concluiu que a singularidade estava se tornando mais provável de ocorrer em torno de 2045. Ele disse à revista Time: "Vamos com sucesso a engenharia reversa do cérebro humano em meados dos anos 2020. No final dessa década, os computadores terão inteligência no mesmo nível humano." [1] Perigos potenciais Existe atualmente uma complexa discussão sobre os perigos que a singularidade tecnológica poderá trazer à humanidade. Segundo muitos estudiosos, um intelecto artificial muito superior aos melhores cérebros humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidade social, não teria porquê estar submisso a nós. De acordo com esta linha de raciocíonio, Vernor Vinge aposta na rebelião das máquinas inteligentes contra os homens, o que poderia resultar em um extermínio total ou na escravização da raça humana após uma guerra de grandes proporções, muitas vezes apontada como uma possível Terceira Guerra Mundial. Ao lado de Vernor Vinge, temos também Bill Joy, fundador da Sun Microsystems, que publicou no ano 2000 o, atualmente famoso, artigo "Por que o futuro não precisa de nós?", onde defende a idéia de que as máquinas inteligentes e auto-replicantes são perigosas demais e poderão facilmente fugir do nosso controle. Tradicionalmente argumenta-se que os homens jamais iriam entregar o poder às máquinas ou dar-lhes a capacidade de tomá-lo de nós, mas as coisas podem se suceder de forma diferente, já que o grau de dependência do homem aumentará paulatinamente até chegar a um ponto em que não restem alternativas senão a de aceitar as decisões tomadas pelas máquinas. Na mesma proporção em que os problemas da sociedade se tornarem mais complexos e as máquinas mais inteligentes, cada vez mais decisões serão tomadas por elas simplesmente por serem mais eficazes que as tomadas pelos humanos. Isso pode levar a um estágio em que a nossa dependência em relação às máquinas transforme-se no domínio pacífico das mesmas sobre nós, o que não descarta a possibilidade de um domínio agressivo. Numa linha de raciocínio alternativa, o matemático, escritor e ativista político Theodore Kaczynski, conhecido como o terrorista Unabomber, publicou um manifesto sobre a possibilidade das classes superiores da sociedade usarem-se da tecnologia para simplesmente eliminar as massas inferiores, Kaczynski é também adepto do ludismo e é radicalmente contra o avanço tecnológico da forma como ele está acontecendo. Os artigos de Kaczynski foram incluídos em um livro recente de Raymond Kurzweil. Outros perigos mais amenos dizem respeito a exclusão digital e social e ao impacto da singularidade tecnológica sobre a economia internacional, especialmente sobre os países pobres e emergentes. Há ainda questões éticas, que não representam perigos potenciais, mas que também não podem ser ignoradas. Cultura popular Há muito tempo o cinema e a ficção-científica abordam temas relacionados ao fim do mundo, mas a singularidade tecnológica como ameaça global é algo bem mais recente. Um exemplo disso é o filme Matrix, lançado em 1999, que apresenta uma versão bastante elaborada de como poderá ocorrer a singularidade tecnológica. No filme, uma guerra entre homens e máquinas inteligentes é travada entre 2094 e 2102 com a derrota e conseqüente escravização da humanidade. De forma semelhante, o filme O Exterminador do Futuro 3: A Rebelião das Máquinas aborda uma longa e inacabada guerra entre homens e máquinas. Por outro lado, alguns filmes, como, por exemplo, Eu, robô do escritor Isaac Asimov (que escreveu quase 500 livros) , são mais cautelosos e abordam uma vitória humana sobre a questão. Outros , como O Homem Bicentenário (também do escritor Isaac Asimov), mostram que a inteligência artificial pode ser totalmente benéfica e que a singularidade tecnológica pode não trazer perigos potenciais à humanidade. Organizações e instituições relacionadas Existem várias organizações e instituições que pretendem participar ativamente e/ou promovem estudos acerca da singularidade tecnológica. Dentre estas podemos destacar: • O Singularity Institute for Artificial Intelligence que é um instituto de pesquisa sem fins lucrativos que já vem promovendo há algum tempo o estudo e o avanço das pesquisas na área da inteligência artificial e prega que a singularidade tecnológica pode ser totalmente benéfica, ao contrário do que muitos acreditam. Estão atualmente trabalhando para dar forma ao que o estatístico britânico Irving John Good chamou de "explosão de inteligência" e têm como objetivo adicional promover uma discussão e uma compreensão mais ampla sobre a inteligência artificial e seus benefícios. • A Acceleration Studies Foundation é uma organização educacional sem fins lucrativos que visa promover estudos e pesquisas (e também conseguir investimentos para as mesmas) acerca da aceleração do progresso científico e tecnológico e da aceleração das mudanças sociais, políticas, culturais e econômicos de nossa sociedade. É também responsável por uma conferência anual realizada na Universidade de Stanford, nos Estados Unidos, onde se discute a aceleração das inovações tecnológicas e o seu impacto social, promovendo para tal introspecções multidisciplinares acerca de assuntos muitas vezes relacionados à singularidade tecnológica. • A Associação Transumanista Mundial, fundada em 1998 pelo filósofo sueco Nick Bostrom, director do Instituto do Futuro da Humanidade, criado na Faculdade de Filosofia de Oxford, encabeça inúmeras delegações em todo o mundo, mas não deixa de ser uma especificidade do Ocidente industrializado. Os transumanistas têm por base na sua argumentação o êxito das nanotecnologias e defendem que a ciência está prestes a passar a Humanidade e vai obrigá-la a ultrapassar-se a si mesma. Raymond Kurzweil, engenheiro e futurologista americano, publicou Human 2.0, “Singularidade” em português, ligado ao tema em questão Singularidade tecnológica, esta publicação contempla a próxima fusão entre o ser humano e a máquina e o aparecimento de sistemas supra-inteligentes. Os movimentos transumanistas pretendem o nascimento de um mundo sem limitações, que nos força a ser meros seres humanos. Amanhã, deixará de ser necessário nascer, as doenças terão desaparecido e a morte deixará de ser imposta, esta recusa da condição humana denota uma rejeição a tudo o que a natureza nos impõe. • Google, Yahoo e Nasa juntos resolveram apoiar um colégio que ensina os alunos a lidar com um mundo onde a tecnologia pode tornar-se mais esperta do que os seres humanos. A Singularity University terá a sua base no programa espacial do Ames Campus no Vale do Silício, E.U.A. Seu chanceler será o controverso futurista Raymond Kurzweil, cujo livro escrito em 2005 "A Singularidade está próxima" inspirou o nome da escola. Singularity University aceitará 30 alunos na sua primeira turma neste Verão 2009, aumentando para 120 no próximo ano. Apesar do seu nome, o Colégio não é realmente uma Universidade, mas vai oferecer nove semanas de cursos no intuito de assegurar uma tecnologia para melhorar a situação da humanidade, em vez de prejudicá-la. Os cursos foram concebidos para ver como os alunos podem usar a tecnologia de forma a resolver problemas mundiais como a pobreza, a fome, as doenças, o aquecimento global e redução do abastecimento energético. Outras vozes proeminentes • Marvin Minsky, cientista americano, co-fundador do laboratório de inteligência artifical do MIT, e autor de diversos artigos sobre inteligência artificial e filosofia. • Hans Moravec é um professor residente permanente da pesquisa no Instituto de Robótica da Universidade Carnegie Mellon conhecido pelo seu trabalho na inteligência artificial, e pelas publicações sobre o impacto da tecnologia. • Max More é um filósofo e futurista que escreve, fala, e consulta em métodos avançados da tomada de decisão e do foresight para segurar o impacto de tecnologias emergentes.
Posted on: Wed, 21 Aug 2013 23:04:23 +0000

Trending Topics



Recently Viewed Topics




© 2015