Páginas

sábado, 29 de maio de 2010

Google Divulga Lista dos 1000 Sites Mais Acessados

Fonte: http://www.OlharDigital.com.br



O Google liberou essa semana uma lista com os 1000 sites mais acessados da web. Para que isso fosse possível, o buscador se baseou em informações coletadas de seus usuários para chegar a outros sites.

Entre os cinco sites mais visitados estão Facebook, Yahoo, Live.com, Wikipedia e MSN. O Twitter aparece em 18º lugar, enquanto o Orkut está em 45º.

O primeiro site brasileiro a aparecer na lista é o UOL, em 95º lugar.

A lista completa com os 1000 sites mais acessados nos últimos tempos pode ser conferida no Doubleclick ad Planner, do Google.

Criado Protótipo de Notebook para Pulso

Fonte: http://wwww.OlharDigital.com.br



Se você achava que os notebooks presentes no mercado portátil atualmente chegaram ao limite das novidades, saiba que não é bem assim.

Dispensando a necessidade de ter de carregar seu portátil no bolso ou até mesmo na mochila, o Nextep é um notebook que você veste no pulso.

O protótipo, desenvolvido pelo designer japonês Hiromi Kiriki a pedido da Sony, possui tela OLED sensível ao toque. A flexibilidade da tela permite que o protótipo possa ser enrolado no pulso.

Mas não pense que as novidades param por aí. Além da qualidade da imagem por conta da tela touchscreen OLED, o protótipo possui um projetor holográfico. Se você não fica satisfeito em visualizar imagens em sua tela OLED, basta projetá-las em uma superfície plana.

Sendo um protótipo, ainda não há previsão para chegar ao mercado de eletrônicos. Porém, vale ficar atento às novidades da tecnologia.

Novo DVD é Capaz de Armazenar 1.000 Vezes Mais Dados que Blu-Ray

Fonte: http://wwww.OlharDigital.com.br

Cientistas descobriram um novo material sintético constituído por uma forma diferente de cristais de óxido de titânio. A novidade é que este material permite criar discos com capacidade mil vezes maior que um disco de Blu-ray, chegando a 25TB.

De acordo com o cientistas, o processo é possível quando se coloca a substância no disco, formando assim uma película negra de metal. Essa película conduz eletricidade quando o leitor óptico atinge o disco e a luz funcionaria como "ON/OFF" para o armazenamento de dados.

Os pesquisadores afirmam que, pelo fato de o material mudar de cor na presença de luz, as cores refletem a luz de forma diferente, possibilitando o armazenamento diferenciado de informações.

Ainda não há previsão para o produto ser fabricado em escala comercial, mas sabe-se que o custo do material é baixo.

Quantos aos aparelhos que estão no mercado hoje, não há informações se serão capazes de reproduzir os novos discos.

sexta-feira, 21 de maio de 2010

III Jornada de Informática do Maranhão

O Departamento de Informática da Universidade Federal do Maranhão (UFMA) promoverá a III Jornada de Informática do Maranhão 2010 (JIM), que será realizada nos dias 31 de maio e 1º e 2 de junho, no Multicenter Sebrae (Calhau). A estimativa de público da edição deste ano é de 250 pessoas.

O evento de caráter acadêmico e técnico tem como objetivo oferecer um espaço de intercâmbio entre os profissionais de informática da região a partir da apresentação e discussão de temas que tratem da aplicação da computação para solução dos problemas do Maranhão.

Por meio da Jornada será possível que estudantes e profissionais de informática tenham contato com temas de interesse acadêmico para o enriquecimento das atividades de pesquisa, além de acesso a novas tendências da área e descoberta de novas linhas de interesse.

Durante a Jornada serão abordados temas relevantes ao mercado de informática, discutindo novas tecnologias e suas aplicações e contribuirá com a disseminação da cultura de informática na sociedade.

Entre os tópicos de interesse geral da jornada estão: Arquitetura de Computadores, Computação Gráfica, Empreendedorismo, Engenharia de Software, Inclusão Digital, Informática na Educação, Informática Pública, Redes de Computadores, Sistemas Distribuídos e Computação Móvel, Sistemas Operacionais, Software Livre, entre outros.

Nos três dias da III Jornada de Informática do Maranhão 2010 serão realizadas palestras, apresentação de trabalhos e mini-cursos. Os trabalhos podem ser submetidos até o dia 13 de maio e devem ser encaminhados para o e-mail: mario@deinf.ufma.br Este endereço de e-mail está protegido contra SpamBots. Você precisa ter o JavaScript habilitado para vê-lo. . Outras informações no 3301-8223.Outras informações disponiveis em http://www.deinf.ufma.br/~jim2010

As inscrições para submissão de trabalhos vai até o dia 16/05

segunda-feira, 17 de maio de 2010

Ciência do Século 21 Exige Realidade Virtual e Inteligência Artificial

Por: Fabio Reynol - Agência Fapesp - 14/05/2010

Laboratórios virtuais

Um matemático resolve equações mergulhado em uma piscina virtual de números e gráficos, na qual ele pode andar e observar os resultados que são construídos à sua volta.

Um químico testa novas interações moleculares movendo manualmente átomos do tamanho de bolas de tênis, que ficam ao seu redor e reproduzem em três dimensões as substâncias formadas.

Esses exemplos futuristas são a solução imaginada por George Djorgovski, professor de astronomia do Instituto de Tecnologia da Califórnia (Caltech), dos Estados Unidos, para que pesquisadores consigam lidar com os dados cada vez mais complexos que a ciência vem produzindo em quantidade gigantesca.

Limite da capacidade humana

Durante o Faculty Summit 2010 América Latina, evento promovido pela FAPESP e pela Microsoft Research, que se encerra hoje (14/05), Djorgovski explicou que a quantidade e a complexidade dos dados científicos ultrapassou os limites da capacidade humana para entendê-los e até mesmo para observá-los.

"É preciso admitir que a maior parte dos dados levantados hoje pela ciência jamais serão vistos por olhos humanos. É simplesmente impossível," disse Djorgovski.

O pesquisador usou como exemplos trabalhos de sua própria área de atuação, a astronomia. Telescópios monitorados por sistemas automáticos registram diariamente enormes quantidades de dados que não poderiam ser totalmente analisados nem se toda a população da Terra fosse formada por astrônomos, de acordo com Djorgovski.

Revolução da informação

O mesmo acontece com outras áreas da ciência que trabalham com grandes quantidades de informações, como é o caso dos estudos sobre a biodiversidade e a climatologia. Além de enorme, esse banco de dados está dobrando de tamanho a cada ano e meio.

"A tecnologia da informação é uma enorme revolução que ainda está em andamento. Ela é muito maior que a Revolução Industrial e só é comparável à imprensa de Gutemberg. Essa revolução tem mudado até os paradigmas científicos vigentes", declarou o pesquisador.

Armas de instrução de massa

Ele explica que as ferramentas, os dados e até os métodos utilizados pela ciência migraram para o mundo virtual e agora só podem ser trabalhados nele.

"Com isso, a web tem potencial para transformar todos os níveis da educação. É uma verdadeira arma de instrução em massa", ressaltou fazendo um trocadilho com o termo militar.

"Ferramentas de pesquisa de última geração podem ser utilizadas por qualquer pessoa do mundo com acesso banda larga à internet", afirmou Djorgovski. Como exemplo, o pesquisador falou que países que não possuem telescópios de grande porte podem analisar e ainda fazer descobertas com imagens feitas pelos melhores e mais potentes equipamentos disponíveis no mundo.

Em busca de sentido

No entanto, trabalhar a educação também envolve o processamento de grande quantidade de informações. Essa montanha de dados a ser explorada levou o pesquisador a questionar a utilidade de uma informação que não pode ser analisada.

Nesse sentido, Djorgovski considera tão importante quanto a coleta de dados, os processos subsequentes que vão selecionar o que for considerado relevante e lhes dar sentido.

São os trabalhos de armazenamento, mineração e interpretação de dados, etapas que também estão ficando cada vez mais a cargo das máquinas.

Além da quantidade, também a complexidade das informações está ultrapassando a capacidade humana de entendimento. "Podemos imaginar um modelo de uma, duas ou três dimensões. Mas um universo formado por 100 dimensões é impossível. Você poderá entender matematicamente a sua formação, mas jamais conseguirá imaginá-lo", desafiou o astrônomo.

Realidade virtual a serviço da ciência

Mesmo assim, ele acredita que ainda há espaço para que raciocínio humano amplie sua capacidade, contanto que receba uma ajuda externa: a da realidade virtual. "A tecnologia desenvolvida para os jogos eletrônicos poderá ajudar o pesquisadores a ter maior compreensão de seu objeto de pesquisa, ao proporcionar uma visualização que o envolve completamente", afirmou ilustrando com os exemplos do matemático e do químico, citados acima.

Para Djorgovski, um dos grandes problemas da ciência atual consiste em lidar com uma complexidade crescente de informações. Como solução, o pesquisador aposta no desenvolvimento de novos sistemas de inteligência artificial.

"As novas gerações de inteligência artificial estão evoluindo de maneira mais madura. Elas não emulam a inteligência humana, como faziam as primeiras versões. Com isso conseguem trabalhar dados mais complexos", disse.

A chave para essas soluções, segundo o astrônomo, é a ciência da computação. "Ela representa para o século 21 o que a matemática foi para as ciências dos séculos 17, 18 e 19", disse afirmando que a disciplina é ao mesmo tempo a "cola" e o "lubrificante" das ciências atuais.


++++++++++++++++++
Fonte: Site Inovação Tecnológica- www.inovacaotecnologica.com.br URL: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=ciencia-seculo-21-realidade-virtual-inteligencia-artificial

Cinco Desafios em C&T

Superar esses desafios é crucial para o funcionamento, ampliação e reconhecimento do sistema de C&T brasileiro

Por: Marco Antonio Raupp
Fonte: Scientifica American Brasil

No último meio século, a atividade organizada de produção de conhecimento científico estabeleceu-se no país. No centro desse processo estiveram a reforma universitária, institucionalizando a pós-graduação, e a estruturação de um sistema de apoio e fi nanciamento à pesquisa e aos pesquisadores nas universidades e nos centros de pesquisa governamentais.

Como indicador de resultados desse sistema, temos hoje que o Brasil participa com 2% da produção científi ca mundial – resultado significativo, pois mostra que o nosso sistema básico de produção de ciência está do “tamanho econômico do país”, já que esse índice é basicamente o mesmo da participação do PIB brasileiro no PIB mundial.

Estabelecida uma plataforma básica importante para a ciência e tecnologia (C&T), a responsabilidade de ampliação com qualidade e atenção às demandas e necessidades da sociedade e do desenvolvimento do país, pelo seu bom e pleno funcionamento, é grande. Implica o enfrentamento de desafios que merecerão dedicação e esforços iguais ou maiores que aqueles já empregados na construção do sistema básico.

Apresento aqui cinco desses desafios, cuja superação é crucial para a saúde e o bom funcionamento do próprio sistema de C&T, para o reconhecimento de sua utilidade pela sociedade e para que as atividades dos cientistas contribuam para o equilíbrio social e regional do país.

O primeiro deles é a deficiente educação básica e média. A superação desse desafio requer o engajamento da comunidade científica. Não podemos nos furtar à participação, especialmente na questão do ensino das ciências e da matemática. As nossas melhores universidades devem priorizar a formação de bons professores, e em boa quantidade. Isso não vem ocorrendo. Pelo contrário, a formação de professores está sendo relegada àquelas instituições mais destituídas de condições e qualidades. Educação de qualidade é o mais importante requisito para a inclusão social.

A ampliação de vagas nas universidades públicas, sem perder a qualidade, é outro desafio. A vaga em instituição pública é a que de fato está aberta para os filhos da nova classe média, e o atendimento da demanda por profissionais de ensino superior e técnico é condição indispensável para o desenvolvimento do país. A ciência brasileira está basicamente (cerca de 70%) localizada no Sudeste. Por razões estratégicas e de justiça federativa é uma situação que não pode perdurar, como um desafio para o planejamento estratégico e para as políticas de C&T. Temos de redirecionar investimentos federais e estimular fundações de amparo à pesquisa (Faps) locais, como já ocorre em alguns estados.

Em regiões como a Amazônia, o semiárido e a Plataforma Continental Marinha, o conhecimento científico é indispensável para uma intervenção econômica sustentável. É imperativa a atuação do sistema de ciência, tecnologia e inovação (C,T&I) nessas áreas. O aspecto estratégico impõe o desafi o de equacionar devidamente essa questão como forma de amenizar dificuldades regionais.

Outro desafio está na necessidade de aproximação entre o sistema universitário e as atividades de pesquisa e desenvolvimento (P&D) nas empresas. O Brasil já aprendeu a transformar recursos fi nanceiros em conhecimento; agora, precisamos aprender a transformar conhecimento em riqueza. Além do estímulo à participação de pesquisadores em projetos de interesse da empresa, mecanismos como incubadoras de empresas nascentes nas universidades, parques tecnológicos congregando universidades, centros de pesquisas e empresas com interesse em tecnologia e inovação, podem ser estimulados por políticas públicas para criar pontes de cooperação, em benefício da economia nacional.

Finalmente, há o desafio de superar um gargalo que decorre do fato de a C&T ser atividade recente entre nós. Sendo transversal a todas as outras, sua superação é importante para a boa fluência das demais. Legislações desenvolvidas em outras épocas e situações, voltadas para outros propósitos são confrontadas e/ou questionadas sistematicamente pelas atividades demandadas pelo desenvolvimento científico e tecnológico do país. São exemplos a coleta de material biológico de nossa biodiversidade, o uso de animais em experimentos científicos, a coleta e o uso de células-tronco embrionárias, as impropriedades legais na cooperação entre entidades científicas públicas e empresas privadas, o regime “ultrarrápido” nas importações de insumos científicos, e muitos outros.

Alguns avanços estão ocorrendo, como a nova lei que regulamenta o uso de animais em pesquisa, a decisão do Supremo Tribunal Federal (STF) sobre células-tronco, a Lei de Inovação e a Lei do Bem. Mas entendemos que uma revisão geral para identifi cação de gargalos, incluindo um estudo sobre o status institucional das organizações de pesquisa e o regime de contratação de pessoal, entre outros, é absolutamente indispensável.


++++++++++++++++++++
Marco Antonio Raupp é matemático, ex-diretor geral do Instituto Nacional de Pesquisas Espaciais (Inpe) e presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC)

quarta-feira, 5 de maio de 2010

Cientista Propõe Teoria Unificada da Inteligência Artificial

Por: Larry Hardesty - MIT - 19/04/2010

Regras do pensamento

Nas décadas de 1950 e 1960, os pesquisadores da nascente inteligência artificial dedicaram-se à tentativa de descobrir como o pensamento funciona - e em que regras esse funcionamento se baseia.

Mas essas regras logo revelaram-se muito mais complicadas do que se poderia imaginar.

Desde então, as pesquisas sobre a inteligência artificial têm-se apoiado, não em regras bem definidas, mas em probabilidades - padrões estatísticos que os computadores podem aprender a partir da análise de grandes conjuntos de dados, os chamados dados de treinamento.


Inteligência probabilística

O enfoque probabilístico tem sido responsável pela maior parte dos progressos recentes no campo da inteligência artificial, como os sistemas de reconhecimento de voz ou de tradução automatizada de textos entre idiomas diferentes.

Mas Noah Goodman, um cientista do MIT, que divide seu tempo entre o departamento de Ciências Cognitivas e Cerebrais e o laboratório de Ciência da Computação e Inteligência Artificial, acha que a inteligência artificial cedeu muito quando desistiu das regras.

Ao combinar os antigos sistemas baseados em regras com insights dos sistemas probabilísticos mais recentes, Goodman descobriu uma forma para modelar o pensamento que poderá ter grandes implicações para o campo da inteligência artificial e para a ciência cognitiva.


Linguagem matemática

Os primeiros pesquisadores da inteligência artificial viam o pensar como uma inferência lógica: se você sabe que as aves podem voar e se lhe for informado que um pintassilgo é uma ave, você pode deduzir que os pintassilgos podem voar.

Um dos primeiros projetos de inteligência artificial foi o desenvolvimento de uma linguagem matemática - muito parecida com uma linguagem de computador - por meio da qual os pesquisadores pudessem codificar afirmações como "as aves podem voar" e "pintassilgos são aves."

Se essa linguagem fosse rigorosa o suficiente, algoritmos de computador seriam capazes de rastrear alegações escritas com ela e calcular todas as deduções logicamente válidas.

Assim que tivessem desenvolvido linguagens como essa, os pesquisadores poderiam começar a usá-las para codificar montanhas de afirmações do senso comum, que seriam armazenadas em gigantescas bases de dados.


Solução braçal

O problema com esta abordagem é que, por exemplo, nem todas as aves podem voar. E entre as aves que não voam, há diferenças fundamentais entre um canarinho que não pode voar porque está em uma gaiola e um canarinho que não voa por estar com uma asa quebrada, e uma outra distinção totalmente diferente entre os canarinhos em qualquer situação e um pinguim.

As linguagens matemáticas que os primeiros pesquisadores da inteligência artificial desenvolveram eram flexíveis o suficiente para representar essas distinções conceituais, mas escrever todas as distinções necessárias mesmo para as tarefas cognitivas mais rudimentares mostrou ser muito mais difícil do que o previsto.


Incerteza das informações

Na inteligência artificial probabilística, por outro lado, um computador é alimentado com montanhas de exemplos de alguma coisa - como fotos de pássaros - e é levado a deduzir, por conta própria, o que esses exemplos têm em comum.

Essa abordagem funciona muito bem com conceitos concretos, como "ave", mas tem problemas com conceitos mais abstratos - por exemplo, voar, uma capacidade compartilhada por pássaros, helicópteros, pipas e super-heróis.

Pode-se apresentar montanhas de imagens de coisas em pleno voo a um sistema probabilístico, mas mesmo que ele consiga descobrir o que todas elas têm em comum, muito provavelmente ele irá incorretamente identificar nuvens, ou o sol ou as antenas no topo dos edifícios, como instâncias de voo.

E há que se considerar que "voo" é um conceito concreto quando comparado a outros como, digamos, "gramática" ou "maternidade".


Linguagem Church

Como uma ferramenta de pesquisa, Goodman desenvolveu uma linguagem de programação chamada Church - em homenagem ao grande lógico norte-americano Alonzo Church - que, como as primeiras linguagens da inteligência artificial, inclui regras de inferência.

Mas as regras da linguagem Church são probabilísticas.

Estabelecido que um pintassilgo é uma ave, um programa escrito em Church é capaz de concluir que os pintassilgos provavelmente podem voar. Mas se for informado ao programa que um pintassilgo pode pesar quase 100 quilogramas, ele pode rever a sua estimativa de probabilidade inicial, concluindo que, na verdade, os pintassilgos provavelmente não podem voar.

"Com o raciocínio probabilístico, você tem a a estruturação de graça," diz Goodman. Um programa em Church que nunca se deparou com um pássaro que não pode voar inicialmente vai definir a probabilidade de que qualquer pássaro voe em 99,99 por cento.

Mas, conforme ele aprende mais sobre emas, pinguins e pintassilgos em gaiolas e com as asas quebradas, ele revê suas probabilidades para levar em conta as novas informações.

Solução artificial

Em última instância, as probabilidades representam todas as distinções conceituais que os primeiros pesquisadores de inteligência artificial teriam de codificar manualmente.

Mas o sistema em Church aprende essas distinções por si mesmo, ao longo do tempo - de forma muito parecida com que os seres humanos aprendem novos conceitos e reveem os antigos.

"O que é brilhante aqui é que o sistema permite que você construa um modelo cognitivo de uma forma fantasticamente mais simples e transparente do que era possível até agora," comenta Nick Chater, professor de ciências cognitivas e da Universidade College London.

"Você pode pensar em todas as coisas que um ser humano conhece - tentar listá-las seria uma tarefa sem fim. Mas o truque mágico aqui está dizendo, 'Não, diga-me apenas algumas poucas coisas, e então o cérebro - ou neste caso, o sistema em Church - pode fazer o resto, usando o cálculo probabilístico e traçando todas as consequências e inferências. E também, quando você dá novas informações ao sistema, ele pode descobrir as consequências dessas novas informações," diz Chater.


Simuladores da mente

Mas Chater também adverte que, embora os programas em Church tenham um excelente desempenho em tarefas específicas, atualmente eles exigem recursos computacionais intensivos demais para servirem como "simuladores da mente" de propósito geral.

"Isto é um problema sério se você estiver pensando em rodar programas em Church para resolver todos os problemas do mundo," diz Chater. "Mas o sistema acabou de ser construído, e estas coisas são sempre muito mal otimizadas em suas primeiras versões."

Chater salienta ainda que simplesmente fazer o sistema funcionar já é um grande feito: "É o tipo de coisa que alguém poderia produzir como uma sugestão teórica, e você pensa, 'Uau, isso é fantasticamente inteligente, mas eu tenho certeza de que você nunca vai fazê-lo funcionar na prática.' E o milagre é que o sistema roda, e funciona."

Mais informações sobre a linguagem Church podem ser obtidas no site http://projects.csail.mit.edu/church/wiki/Church.

Criado um Processador Molecular que Imita o Cérebro Humano

Por: Redação do Site Inovação Tecnológica - 26/04/2010

Uma equipe de pesquisadores do Japão e dos Estados Unidos anunciou a criação de um circuito capaz de evoluir e resolver problemas extremamente complexos de forma naturalmente paralela, de forma semelhante ao que acontece no cérebro humano.

Inserido nas pesquisas da chamada computação molecular, o feito inédito representa uma mudança de paradigma em relação à atual computação digital, baseada na solução sequencial de problemas.

Segundo os cientistas, o circuito molecular orgânico é a primeira demonstração prática já feita de um "circuito capaz de evoluir", inspirado no mesmo processo usado pelo cérebro humano.

Processamento neural


Os circuitos de processamento de dados dos computadores digitais são estáticos - uma vez construídos, eles serão capazes de fazer sempre as mesmas operações.

Nos nossos cérebros, ao contrário, os circuitos de processamento de informações - os neurônios e suas redes - evoluem continuamente para resolver problemas novos e mais complexos.

"Os computadores modernos são muito rápidos, capazes de executar trilhões de operações por segundo. Nossos neurônios, por outro lado, somente disparam cerca de mil vezes por segundo. Mas isso me permite ver você, reconhecê-lo, falar com você e ouvir alguém andando no corredor, tudo simultaneamente. Isso é uma tarefa impraticável mesmo para o mais rápido supercomputador," disse Ranjit Pati, um dos autores do trabalho.

Pati afirma que o computador molecular foi ideia do seu colega Anirban Bandyopadhyay, ambos atualmente pesquisadores da Universidade Tecnológica de Michigan. Seus colaboradores japoneses trabalham no Instituto Nacional de Ciências dos Materiais e no Instituto de Tecnologia da Informação do Japão.


Processamento paralelo


Apesar da aparente lentidão do cérebro humano em relação aos computadores - comparando a velocidade de chaveamento dos transistores (1013) e a velocidade de disparo dos neurônios (103) - os computadores atuais somente operam sequencialmente. Uma vez estabelecida uma rota ao longo do seu circuito, isto nunca irá mudar.

No nosso cérebro, ao contrário, os impulsos elétricos formam vastas redes dinâmicas, que evoluem constantemente, e que operam coletivamente. É por isto que é tão difícil transportar a forma de resolver problemas do cérebro humano para os computadores.

Da mesma forma, o "circuito evolutivo" deste novo processador molecular é massivamente paralelo, permitindo interconexões simultâneas de até 300 bits.


Processador molecular evolutivo


Para construir o seu processador orgânico evolucionário, os cientistas usaram a DDQ, uma molécula hexagonal feita de nitrogênio, oxigênio, cloro e carbono. As moléculas DDQ se estabeleceram por conta própria, em um processo chamado automontagem, formando duas camadas sobre um substrato de ouro.

As moléculas DDQ podem chavear entre quatro estados condutores - 0, 1, 2 e 3 - ao contrário dos sistemas binários dos computadores digitais, que estão limitados a 0s e 1s.

"A melhor parte é que aproximadamente 300 moléculas 'falam' umas com as outras de uma vez só durante o processamento das informações," explica Pati. "Nós realmente imitamos como os neurônios se comportam no cérebro."


Solução de problemas intratáveis

As cadeias de chaves moleculares, capazes de interagirem simultaneamente, poderão permitir a solução de problemas hoje intratáveis e para os quais não existem nem mesmo algoritmos que possam ser codificados para rodarem nos computadores atuais.

Isto está levando os cientistas a considerarem que essa nova arquitetura, se tornada prática, será capaz de produzir soluções para problemas como a previsão de calamidades naturais ou o surgimento de epidemias - exemplos de situações complexas demais para os computadores atuais.

Para demonstrar essa capacidade, os cientistas simularam dois fenômenos naturais utilizando apenas seu processador molecular: a difusão de calor e a evolução de células cancerosas. Eles também resolveram problemas de lógica clássica, incluindo os complicados diagramas de Voronoi.

Arquitetura paralela

Como é baseado em uma camada molecular orgânica, o novo processador biologicamente inspirado ainda é capaz de se autoconsertar se surgir algum defeito - da mesma forma que, quando um neurônio morre, outro neurônio assume sua função.

"Além de representar uma mudança conceitual do processamento serial com arquiteturas estáticas, nossa abordagem paralela e dinamicamente reconfigurável poderá fornecer meios de resolver problemas computacionais intratáveis por qualquer outro meio," dizem os pesquisadores em seu artigo.

Bibliografia:

Massively parallel computing on an organic molecular layer
Anirban Bandyopadhyay, Ranjit Pati, Satyajit Sahu, Ferdinand Peper, Daisuke Fujita
Nature Physics
25 April 2010
Vol.: Published online before print
DOI: 10.1038/nphys1636

segunda-feira, 3 de maio de 2010

Economia do Saber

Por DR. SOFIANE LABIDI
Jornal Pequeno, 7 de março de 2010 às 10:44


Em um mundo moderno onde a única certeza é a mudança, apenas o conhecimento é uma fonte segura de vantagem competitiva. O conhecimento passou a ocupar uma posição essencial no desenvolvimento das forças produtivas. As empresas de sucesso são aquelas que, de forma consistente, criam novos conhecimentos, os disseminam e os incorporam para gerar novas tecnologias e produtos. Isso caracteriza a empresa criadora de conhecimento cuja inovação contínua é seu negócio.


As transformações ocorridas nos últimos anos estão nos levando a um novo modelo, um novo paradigma de organização da economia e da sociedade. Estamos assistindo à emergência de uma nova economia: a "economia do conhecimento" mais conhecida como a "economia do saber" na qual, a pesquisa e a inovação técnico-científica são os motores da produção e do desenvolvimento. Na sociedade do saber, o recurso controlador não é mais o capital, a terra ou a mão-de-obra, mas, sim, o conhecimento, a capacidade e a experiência. A sociedade do saber é fundamentada no princípio que o conhecimento constitua o maior elemento do desenvolvimento da atividade humana. Uma sociedade do saber cria, compartilha, e usa o saber para a prosperidade e o bem estar de seus cidadãos. A relação entre conhecimento e desenvolvimento é fundamental para a construção da sociedade do saber, pois o saber, além de ser uma ferramenta para a satisfação das necessidades econômicas, é um elemento fundamental para o crescimento humano.


Para enfrentar seus desafios, uma cidade, uma região ou uma nação, deve melhor apreender o conceito da economia do saber para melhor integrá-la às suas estratégias de desenvolvimento e adaptá-la de forma eficiente aos seus contextos econômicos. Tanto para os indivíduos, empresas ou governos; sobrevive hoje quem sabe mais, quem sabe aprender e quem aprende mais rápido.


Porém, o conceito de economia do saber não é tão recente. Logo nos anos 50, foi observada uma expansão gradual das atividades não-agrícolas e não-industriais. A tal economia emergente, foi referida na época como economia pós-industrial e em seguida como "indústria baseada no conhecimento" e "capitalismo cognitivo" quando foi descoberto que as ocupações ligadas à produção do conhecimento tinham ultrapassado as outras ocupações em quantidade. Logo no final dos anos 70, foi utilizado o termo "economia da informação". Mas, com a emergência das novas tecnologias (Internet, Web, Inteligência Artificial, etc.) esta economia amadureceu e cresceu rapidamente para a economia do conhecimento e do saber.


A economia do saber é caracterizada pelo aumento da participação do conhecimento na criação de valor agregado e por uma difusão rápida das novas tecnologias da informação. Assim, o tamanho da economia do saber pode ser medido pela parcela do setor no PIB (Produto Interno Bruto) total e portanto, ela não pode ser limitada apenas aos setores da tecnologia, mas deve envolver todos os setores de atividades desde que comprometidos com a geração de trabalho e a melhoria da produção.


É pela educação que se prepara a população para a entrada na nova era e que se constrói a sociedade do saber. De fato, há uma evidência histórica da relação entre educação e produtividade. Essa relação se consolidou ainda mais com o advento da sociedade do saber. Isso significa que, se quisermos realmente ser competitivos, teremos que mudar nosso modo de entender e de agir em relação à educação, pois o desenvolvimento das economias modernas que são baseadas no conhecimento aumenta ainda mais a importância da política educacional.


A demanda por formação é cada vez maior. Essa demanda não somente cresce como também sofre uma mutação profunda. Como vivemos na sociedade da mudança e da revolução tecnológica, a maioria do conhecimento adquirido no início de uma carreira fica praticamente obsoleto antes mesmo de seu término. Porém, até os anos 60, as competências adquiridas por uma pessoa permanecem quase inalteradas até o final de sua carreira. O estereótipo onde se aprende uma profissão na juventude para exercê-la ao longo da vida está ficando em xeque.


Os sistemas educacionais encontram-se desatualizados com relação à quantidade, diversidade e, principalmente, velocidade de evoluções dos saberes. Assim, a educação e a generalização do saber são nossos maiores desafios. Devemos considerar a transição de uma educação institucionalizada para uma troca de saberes. Devemos ampliar os mecanismos e o esforço pedagógico dos professores e formadores e investir mais na formação profissional e contínua. O pensador e filósofo da informação Pierre Lévy, por exemplo, propõe duas reformas fundamentais nos sistemas educacionais: o reconhecimento das novas formas de aprendizagem por meio das experiências social e profissional e não mais somente por meio das formas tradicionais; e a utilização do Ensino Virtual.


O impacto da evolução para a nova economia é muito grande. Com a economia do saber cria-se um ambiente competitivo que atraia e fixa novas empresas e encorajar a criação de novos empreendimentos locais. Ela orienta a geração de trabalho e de riquezas, fortalece a competitividade e o desenvolvimento inclusivo, sustentável, sólido, geral e equilibrado. Os novos paradigmas trazidos pela sociedade do saber têm muitas conseqüências: o fato que as competências profissionais se tornam obsoletas ao longo do tempo, a nova natureza do trabalho que valoriza a transação do conhecimento (aprender, transmitir, produzir), as novas formas de acesso à informação; e os novos estilos de raciocínio e conhecimento.


Infelizmente, é evidente a fraqueza do posicionamento do Maranhão quanto à economia do saber onde vários fatores impedem seu desenvolvimento. Deve-se, deste modo, adotar uma série de políticas que causam transformações importantes nos setores da educação, da inovação e das Tecnologias da Informação e Comunicação - TICs reforçando assim suas capacidades de formação, de tecnologia, e de produção fatores esses determinantes da competitividade e do desenvolvimento.


Além dos governos e do setor de tecnologia, todos os atores econômicos e sociais devem se sentir responsáveis pela criação do saber e a construção de competências tanto nas empresas como no setor público. Uma dinâmica coletiva requerendo a multiplicação das interações e das relações de cooperação entre todos os atores (Fiema, Sebrae, IEL, Senai, IEs, etc.), bem como uma política ambiciosa e inovadora de investimento no conhecimento estão se impondo. Iniciativas como a criação de parques tecnológicos, institutos e pólos de pesquisa e desenvolvimento, institutos e faculdades de tecnologia, empresas júnior, incubadoras de empresas, etc. são ações necessárias e urgentes para implantação e sucesso de tal economia.


É preciso também, investir em um grande projeto de formação e qualificação de recursos humanos e reforçar a cooperação intersetorial e o papel das empresas do setor privado e das organizações da sociedade civil organizada.


É preciso, portanto buscar modernizar o sistema educacional e encorajar investimentos maciços em todos os setores relacionados com o conhecimento e com as novas tecnologias. A economia do saber deve ser reconhecida como um elemento fundamental no desenvolvimento econômico e social das comunidades.


Acreditamos que apenas uma economia baseada no saber tem a capacidade de gerar uma verdadeira coesão social e que a ligação intrínseca entre o homem e o conhecimento é a essência mesmo desta nova tendência da história onde o homo sapiens prevalece sobre o homo faber.


Biografia
Sofiane Labidi é doutor em Inteligência Artificial (1995) pelo Instituto Francês de Pesquisa em Informática e Automática (INRIA). Tem graduação e mestrado em Ciência da Computação pela Universidade de Nice Sophia Antipolis (França). Dr. Labidi possui uma larga experiência em pesquisa e produção científica e tem vários artigos publicados em periódicos e congressos nacionais e internacionais na área de Inteligência Artificial. Ele foi coordenador de vários cursos de pós-graduação Lato Sensu, coordenador do Laboratório de Sistemas Inteligentes - LSI, da Ufma, onde coordenou vários projetos de Pesquisa e Desenvolvimento (P&D) e já formou mais de 40 mestres e doutores. Ele ministrou várias palestras no Brasil e no mundo e organizou vários congressos científicos. É editor de várias revistas internacionais, na área de Inteligência Artificial, e foi presidente do Simpósio Brasileiro de Inteligência Artificial (SBIA´2004). Dr. Labidi é consultor do Sebrae, na área de Gestão do Conhecimento, e membro fundador da Academia Maranhense de Ciência. Dr. Labidi ocupou vários cargos como coordenador do Núcleo de Educação à Distância em Saúde, do Pólo da Saúde do Maranhão; pró-reitor de Pesquisa da Universidade Virtual do Maranhão e diretor-presidente da Fundação de Amparo à Pesquisa do Estado do Maranhão (Fapema). Atualmente é assessor especial do prefeito de São Luis, João Castelo.