Páginas

sexta-feira, 8 de outubro de 2010

Linux está Pronto para Processadores de até 48 Núcleos

Redação do Site Inovação Tecnológica - 04/10/201

Geração multicore

Para continuar melhorando o desempenho dos computadores, os fabricantes se voltaram para a adição de mais "núcleos", ou unidades de processamento, em cada chip, deixando de lado a antiga corrida pela aceleração pura dos processadores.

Em princípio, um processador com dois núcleos será duas vezes mais rápido do que um processador com apenas um núcleo, um processador com quatro núcleos será quatro vezes mais rápido, e assim por diante.

Para isso, contudo, é necessário dividir as tarefas computacionais para que elas sejam executadas de forma eficiente em vários núcleos.

Fazer programas capazes disso é uma tarefa difícil, e essa dificuldade só aumenta conforme aumenta o número de núcleos.

Muitos especialistas defenderam que, para aproveitar a geração multicore seria necessário reinventar a computação, incluindo reescrever as linguagens de programação e os sistemas operacionais para permitir tirar proveito dos múltiplos núcleos em um único processador.

Linux multicore

Mas um grupo de pesquisadores do MIT, nos Estados Unidos, acaba de demonstrar que pode não ser necessário tal revolução, pelo menos a curto prazo.

Especificamente no caso do sistema operacional Linux, os pesquisadores demonstraram que a arquitetura de software atual poderá sobreviver muito bem a um aumento crescente de núcleos dentro de um mesmo processador - pelo menos até 48 núcleos por processador.

Para ter uma noção de como o Linux poderá rodar nos chips do futuro, os pesquisadores do MIT desenvolveram um sistema no qual oito processadores de seis núcleos simulam o funcionamento e o desempenho de um processador de 48 núcleos.

Usando esta plataforma, eles testaram uma bateria de aplicativos e testes de benchmarking que demandam fortemente o sistema operacional.

Em seguida, eles foram ativando os 48 núcleos, um por um, e observaram as consequências sobre o funcionamento do sistema operacional e sobre o seu desempenho.

Gargalo no contador

Num determinado ponto, a adição de mais núcleos começou a tornar o sistema operacional mais lento.

Mas, segundo os pesquisadores, o problema teve uma explicação surpreendentemente simples e pôde ser resolvido igualmente sem complicações.

Em um sistema multicore, os múltiplos núcleos muitas vezes executam cálculos que envolvem os mesmos dados. Enquanto os dados são necessários para algum núcleo, eles não podem ser apagados da memória. Assim, quando um núcleo começa a trabalhar com os dados, ele incrementa um contador central; quando ele termina a sua tarefa, ele decrementa o contador.

O contador, portanto, mantém uma contagem do número total de núcleos usando os dados. Quando a contagem chega a zero, o sistema operacional fica sabendo que pode apagar os dados, liberando memória para outros processos.

Conforme aumenta o número de núcleos, contudo, tarefas que dependem dos mesmos dados são divididas em pedaços cada vez menores. Os pesquisadores do MIT descobriram que, a partir daí, os núcleos começam a gastar tempo demais incrementando e decrementando o contador e acabam tendo menos tempo para realizar seu trabalho.

Depois de fazer uma alteração simples no código do Linux, para que cada núcleo mantivesse um contador local, que apenas ocasionalmente era sincronizado com o contador dos outros núcleos, o desempenho geral do sistema melhorou muito, e o acréscimo de núcleos voltou a melhorar o rendimento total do sistema.

Evolução em lugar de revolução

No futuro, se o número de núcleos em um processador for "significativamente maior do que 48", novas arquiteturas e sistemas operacionais poderão tornar-se necessários.

Para os próximos anos, argumentam os pesquisadores, o experimento mostra que um dos principais sistemas operacionais do mercado está pronto para continuar usufruindo dos progressos do hardware sem exigir uma revolução na área do software. A evolução será suficiente.

Contudo, apesar do problema com o contador de referência ter sido fácil de consertar, ele não foi nada fácil de identificar.

"Há um bocado de pesquisa interessante a ser feita na construção de ferramentas melhores para ajudar os programadores a identificar onde está o problema", afirmou Frans Kaashoek, um dos autores do estudo. "Nós escrevemos um monte de pequenas ferramentas para nos ajudar a descobrir o que estava acontecendo, mas nós gostaríamos de tornar o processo muito mais automatizado."

Bibliografia:

An Analysis of Linux Scalability to Many Cores
Silas Boyd-Wickizer, Austin T. Clements, Yandong Mao, Aleksey Pesterev, M. Frans Kaashoek, Robert Morris, Nickolai Zeldovich
September 2010
http://pdos.csail.mit.edu/papers/linux:osdi10.pdf

4ª Feira do Livro de São Luís Recebe Doações

7 de outubro de 2010 às 18:01

Compartilhar e acrescentar conhecimento através da troca e da doação de material faz parte das atividades da Feira do Livro, uma promoção da Prefeitura de São Luís por meio da Fundação Municipal de Cultura (Func). Para colocar a ideia em prática, promovendo um intercâmbio de leituras e leitores, o evento traz o “Troca-Troca Literário”, espaço em que livros previamente doados são postos à disposição do público para que cada um troque o material que tem em mãos por algum dos que estão sendo disponibilizados.

Desde o dia 30 de setembro, os organizadores da Feira estão recebendo livros para doação. Podem ser obras dos mais diversos temas e autores, inclusive exemplares didáticos ou revistas em quadrinhos. Os interessados podem se dirigir à Func e entregar as doações no protocolo, aos cuidados de Pedro Matias, pela manhã, e na Coordenação de Eventos, aos cuidados de Ana Maria ou Josi Oliveira, pela tarde.

Durante a Feira, as doações continuam. Ao final do evento, as obras que restarem serão repassadas para a Biblioteca Municipal do Bairro de Fátima que, na edição de 2009, recebeu mais de 500 livros. O Troca-Troca foi considerado um sucesso pelos organizadores.

“A movimentação no espaço foi muito boa. Começamos a Feira com cerca de 30 livros, mas aqueles que vinham para trocá-los acabavam trazendo muitos outros para serem doados. Nesta 4ª edição, a nossa expectativa é de que seja ainda melhor”, afirmou a responsável pelo espaço, Carolina Sopas.

O Troca-Troca Literário foi idealizado pelos organizadores da tradicional Feira de Porto Alegre e trazido para o Maranhão por iniciativa do coordenador da Feira em São Luís, Jose Maria Paixão Filho. O espaço visa colocar o livro em seu objetivo: ser lido em vez de ficar guardado em uma prateleira.

A Feira do Livro de São Luís é uma promoção da Prefeitura de São Luís por meio da Fundação municipal de Cultura (Func). Este ano, terá como tema “O Livro é guia e instrumento da sabedoria” e acontecerá no período de 12 a 21 de novembro, na Praça Maria Aragão.

quarta-feira, 22 de setembro de 2010

REGIMENTO DO XXII SEMIC

O XXII SEMIC (XXII Seminário de Iniciação Científica) da UFMA é um evento para divulgação da produção acadêmica de Iniciação Científica que permite a socialização de experiências e a reflexão sobre as atividades de pesquisa nas mais diversas áreas de conhecimento, possibilitando, especialmente ao discente, expressar o seu potencial de criação e investigação, estimulando-o a crescer academicamente.

Clique aqui para fazer o download do arquivo: regimento_semic.pdf

Data do edital: 16/09/2010

sexta-feira, 3 de setembro de 2010

FEI Vai Sediar Evento de Robótica e IA


Vinicius Aguiari, de INFO Online
Quinta-feira, 12 de agosto de 2010 - 15h38

São Paulo - O Centro Universitário da FEI (Fundação Educacional Inaciana) vai receber entre os dias 23 e 28 de outubro o Joint Conference, palco para apresentações de pesquisas e competições em robótica, inteligência artificial e redes neurais.

O Joint Conference abrigará simultaneamente três eventos da Sociedade Brasileira de Computação (SBC): a IV Jornada de Robótica Inteligente (JRI); a Competição Latino-Americana de Robótica; e as finais da Olimpíada Brasileira de Robótica (OBR).

Além disso, o evento será sede do XX Simpósio Brasileiro de Inteligência Artificial (SBIA), e do XI Simpósio Brasileiro de Redes Neurais Artificiais (SBRN). Vai receber também workshops, minicursos e palestras internacionais.

O evento espera reunir cerca de 600 estudantes, desde o ensino médio até pós-graduação, além de 150 pesquisadores. Mais de 200 robôs devem ser apresentados.

Mais informações podem ser obtidas no www.jointconference.fei.edu.br.

quarta-feira, 18 de agosto de 2010

ENACOMP 2010

O VIII ENACOMP - 2010 - Encontro Anual de Computação - UFG é um importante evento na área de Computação com duração de 3 dias que reune pesquisadores, especialistas, alunos e profissionais da indústria em palestras, minicursos, apresentações orais e poster. Ainda conta com uma maratona de apresentacao com premiação para os vencedores e para as melhores pesquisas.

Em 2010 o evento evoluiu e traz ainda uma rica feira de oportunidades, pós-graduação e inovação, proporcionando um contato proveitoso dos participantes do evento com empresas, programas de pós-graduação e incubadoras de inovação. O tema do evento para este ano é “Computação, Inovação e Mercado” e a programação completa está disponível no site do evento - http://www.enacomp.com.br

Nesse sentido convidamos pesquisadores e alunos de iniciação científica e pós-graduação a submeterem seus trabalhos para publicação nos Anais e apresentação Oral e Pôster.

DATAS IMPORTANTES

12 de setembro - Artigo completo – Comunicação Oral: de 6 até 8 páginas
12 de setembro - Artigo resumido – Pôster: de 2 até 4 páginas


ÁREAS PARA SUBMISSÃO

Banco de Dados
Engenharia de Software
Inteligência Artificial
Interação Humano Computador
Linguagens de Programação
Lógica e Semântica de Programação
Metodologia e Técnicas da Computação
Processamento Gráfico
Redes de Computadores e Sistemas Distribuídos
Sistemas Embarcados
Sistemas Operacionais

Atenciosamente,
Luanna Lopes Lobato (Chair) - contato@enacomp.com.br
Thiago Jabur Bittar (Co-chair)
Acrísio José do Nascimento Jr. (Co-chair)
Comissão Organizadora do VIII ENACOMP

segunda-feira, 9 de agosto de 2010

PIBIC divulga Resultado da Bolsa PIBIC 2010 da área de Ciências Exatas e Tecnológicas

09/08/2010 - 09:03:35 - Marina Farias/PPPG

Confira o resultado da área de Ciências Exatas e Tecnológicas

O Programa Institucional de Bolsas de Iniciação Científica (PIBIC) informa os selecionados da área de Ciências Exatas e Tecnológicas referente a Bolsas de Iniciação Científica PIBIC 2010.

A indicação dos nomes dos bolsistas começará na próxima semana e deverá ser feita via internet com cópia da documentação entregue na Coordenação do PIBIC (a documentação constará de cópia de identidade e CPF, carta do orientador apresentando o aluno, inclusive explicitando nome do plano e projeto ao qual o aluno está vinculado, comprovante de que o aluno está regulamente matriculado em curso de graduação e não possui vínculo empregatício nem recebe qualquer outra modalidade de bolsa.

Para mais informações entre em contato pelo número (098)33018714 begin_of_the_skype_highlighting (098)33018714 end_of_the_skype_highlighting

Confira no link abaixo /uploads/files/resultado_Exatas_Tecnologicas.pdf

sábado, 29 de maio de 2010

Google Divulga Lista dos 1000 Sites Mais Acessados

Fonte: http://www.OlharDigital.com.br



O Google liberou essa semana uma lista com os 1000 sites mais acessados da web. Para que isso fosse possível, o buscador se baseou em informações coletadas de seus usuários para chegar a outros sites.

Entre os cinco sites mais visitados estão Facebook, Yahoo, Live.com, Wikipedia e MSN. O Twitter aparece em 18º lugar, enquanto o Orkut está em 45º.

O primeiro site brasileiro a aparecer na lista é o UOL, em 95º lugar.

A lista completa com os 1000 sites mais acessados nos últimos tempos pode ser conferida no Doubleclick ad Planner, do Google.

Criado Protótipo de Notebook para Pulso

Fonte: http://wwww.OlharDigital.com.br



Se você achava que os notebooks presentes no mercado portátil atualmente chegaram ao limite das novidades, saiba que não é bem assim.

Dispensando a necessidade de ter de carregar seu portátil no bolso ou até mesmo na mochila, o Nextep é um notebook que você veste no pulso.

O protótipo, desenvolvido pelo designer japonês Hiromi Kiriki a pedido da Sony, possui tela OLED sensível ao toque. A flexibilidade da tela permite que o protótipo possa ser enrolado no pulso.

Mas não pense que as novidades param por aí. Além da qualidade da imagem por conta da tela touchscreen OLED, o protótipo possui um projetor holográfico. Se você não fica satisfeito em visualizar imagens em sua tela OLED, basta projetá-las em uma superfície plana.

Sendo um protótipo, ainda não há previsão para chegar ao mercado de eletrônicos. Porém, vale ficar atento às novidades da tecnologia.

Novo DVD é Capaz de Armazenar 1.000 Vezes Mais Dados que Blu-Ray

Fonte: http://wwww.OlharDigital.com.br

Cientistas descobriram um novo material sintético constituído por uma forma diferente de cristais de óxido de titânio. A novidade é que este material permite criar discos com capacidade mil vezes maior que um disco de Blu-ray, chegando a 25TB.

De acordo com o cientistas, o processo é possível quando se coloca a substância no disco, formando assim uma película negra de metal. Essa película conduz eletricidade quando o leitor óptico atinge o disco e a luz funcionaria como "ON/OFF" para o armazenamento de dados.

Os pesquisadores afirmam que, pelo fato de o material mudar de cor na presença de luz, as cores refletem a luz de forma diferente, possibilitando o armazenamento diferenciado de informações.

Ainda não há previsão para o produto ser fabricado em escala comercial, mas sabe-se que o custo do material é baixo.

Quantos aos aparelhos que estão no mercado hoje, não há informações se serão capazes de reproduzir os novos discos.

sexta-feira, 21 de maio de 2010

III Jornada de Informática do Maranhão

O Departamento de Informática da Universidade Federal do Maranhão (UFMA) promoverá a III Jornada de Informática do Maranhão 2010 (JIM), que será realizada nos dias 31 de maio e 1º e 2 de junho, no Multicenter Sebrae (Calhau). A estimativa de público da edição deste ano é de 250 pessoas.

O evento de caráter acadêmico e técnico tem como objetivo oferecer um espaço de intercâmbio entre os profissionais de informática da região a partir da apresentação e discussão de temas que tratem da aplicação da computação para solução dos problemas do Maranhão.

Por meio da Jornada será possível que estudantes e profissionais de informática tenham contato com temas de interesse acadêmico para o enriquecimento das atividades de pesquisa, além de acesso a novas tendências da área e descoberta de novas linhas de interesse.

Durante a Jornada serão abordados temas relevantes ao mercado de informática, discutindo novas tecnologias e suas aplicações e contribuirá com a disseminação da cultura de informática na sociedade.

Entre os tópicos de interesse geral da jornada estão: Arquitetura de Computadores, Computação Gráfica, Empreendedorismo, Engenharia de Software, Inclusão Digital, Informática na Educação, Informática Pública, Redes de Computadores, Sistemas Distribuídos e Computação Móvel, Sistemas Operacionais, Software Livre, entre outros.

Nos três dias da III Jornada de Informática do Maranhão 2010 serão realizadas palestras, apresentação de trabalhos e mini-cursos. Os trabalhos podem ser submetidos até o dia 13 de maio e devem ser encaminhados para o e-mail: mario@deinf.ufma.br Este endereço de e-mail está protegido contra SpamBots. Você precisa ter o JavaScript habilitado para vê-lo. . Outras informações no 3301-8223.Outras informações disponiveis em http://www.deinf.ufma.br/~jim2010

As inscrições para submissão de trabalhos vai até o dia 16/05

segunda-feira, 17 de maio de 2010

Ciência do Século 21 Exige Realidade Virtual e Inteligência Artificial

Por: Fabio Reynol - Agência Fapesp - 14/05/2010

Laboratórios virtuais

Um matemático resolve equações mergulhado em uma piscina virtual de números e gráficos, na qual ele pode andar e observar os resultados que são construídos à sua volta.

Um químico testa novas interações moleculares movendo manualmente átomos do tamanho de bolas de tênis, que ficam ao seu redor e reproduzem em três dimensões as substâncias formadas.

Esses exemplos futuristas são a solução imaginada por George Djorgovski, professor de astronomia do Instituto de Tecnologia da Califórnia (Caltech), dos Estados Unidos, para que pesquisadores consigam lidar com os dados cada vez mais complexos que a ciência vem produzindo em quantidade gigantesca.

Limite da capacidade humana

Durante o Faculty Summit 2010 América Latina, evento promovido pela FAPESP e pela Microsoft Research, que se encerra hoje (14/05), Djorgovski explicou que a quantidade e a complexidade dos dados científicos ultrapassou os limites da capacidade humana para entendê-los e até mesmo para observá-los.

"É preciso admitir que a maior parte dos dados levantados hoje pela ciência jamais serão vistos por olhos humanos. É simplesmente impossível," disse Djorgovski.

O pesquisador usou como exemplos trabalhos de sua própria área de atuação, a astronomia. Telescópios monitorados por sistemas automáticos registram diariamente enormes quantidades de dados que não poderiam ser totalmente analisados nem se toda a população da Terra fosse formada por astrônomos, de acordo com Djorgovski.

Revolução da informação

O mesmo acontece com outras áreas da ciência que trabalham com grandes quantidades de informações, como é o caso dos estudos sobre a biodiversidade e a climatologia. Além de enorme, esse banco de dados está dobrando de tamanho a cada ano e meio.

"A tecnologia da informação é uma enorme revolução que ainda está em andamento. Ela é muito maior que a Revolução Industrial e só é comparável à imprensa de Gutemberg. Essa revolução tem mudado até os paradigmas científicos vigentes", declarou o pesquisador.

Armas de instrução de massa

Ele explica que as ferramentas, os dados e até os métodos utilizados pela ciência migraram para o mundo virtual e agora só podem ser trabalhados nele.

"Com isso, a web tem potencial para transformar todos os níveis da educação. É uma verdadeira arma de instrução em massa", ressaltou fazendo um trocadilho com o termo militar.

"Ferramentas de pesquisa de última geração podem ser utilizadas por qualquer pessoa do mundo com acesso banda larga à internet", afirmou Djorgovski. Como exemplo, o pesquisador falou que países que não possuem telescópios de grande porte podem analisar e ainda fazer descobertas com imagens feitas pelos melhores e mais potentes equipamentos disponíveis no mundo.

Em busca de sentido

No entanto, trabalhar a educação também envolve o processamento de grande quantidade de informações. Essa montanha de dados a ser explorada levou o pesquisador a questionar a utilidade de uma informação que não pode ser analisada.

Nesse sentido, Djorgovski considera tão importante quanto a coleta de dados, os processos subsequentes que vão selecionar o que for considerado relevante e lhes dar sentido.

São os trabalhos de armazenamento, mineração e interpretação de dados, etapas que também estão ficando cada vez mais a cargo das máquinas.

Além da quantidade, também a complexidade das informações está ultrapassando a capacidade humana de entendimento. "Podemos imaginar um modelo de uma, duas ou três dimensões. Mas um universo formado por 100 dimensões é impossível. Você poderá entender matematicamente a sua formação, mas jamais conseguirá imaginá-lo", desafiou o astrônomo.

Realidade virtual a serviço da ciência

Mesmo assim, ele acredita que ainda há espaço para que raciocínio humano amplie sua capacidade, contanto que receba uma ajuda externa: a da realidade virtual. "A tecnologia desenvolvida para os jogos eletrônicos poderá ajudar o pesquisadores a ter maior compreensão de seu objeto de pesquisa, ao proporcionar uma visualização que o envolve completamente", afirmou ilustrando com os exemplos do matemático e do químico, citados acima.

Para Djorgovski, um dos grandes problemas da ciência atual consiste em lidar com uma complexidade crescente de informações. Como solução, o pesquisador aposta no desenvolvimento de novos sistemas de inteligência artificial.

"As novas gerações de inteligência artificial estão evoluindo de maneira mais madura. Elas não emulam a inteligência humana, como faziam as primeiras versões. Com isso conseguem trabalhar dados mais complexos", disse.

A chave para essas soluções, segundo o astrônomo, é a ciência da computação. "Ela representa para o século 21 o que a matemática foi para as ciências dos séculos 17, 18 e 19", disse afirmando que a disciplina é ao mesmo tempo a "cola" e o "lubrificante" das ciências atuais.


++++++++++++++++++
Fonte: Site Inovação Tecnológica- www.inovacaotecnologica.com.br URL: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=ciencia-seculo-21-realidade-virtual-inteligencia-artificial

Cinco Desafios em C&T

Superar esses desafios é crucial para o funcionamento, ampliação e reconhecimento do sistema de C&T brasileiro

Por: Marco Antonio Raupp
Fonte: Scientifica American Brasil

No último meio século, a atividade organizada de produção de conhecimento científico estabeleceu-se no país. No centro desse processo estiveram a reforma universitária, institucionalizando a pós-graduação, e a estruturação de um sistema de apoio e fi nanciamento à pesquisa e aos pesquisadores nas universidades e nos centros de pesquisa governamentais.

Como indicador de resultados desse sistema, temos hoje que o Brasil participa com 2% da produção científi ca mundial – resultado significativo, pois mostra que o nosso sistema básico de produção de ciência está do “tamanho econômico do país”, já que esse índice é basicamente o mesmo da participação do PIB brasileiro no PIB mundial.

Estabelecida uma plataforma básica importante para a ciência e tecnologia (C&T), a responsabilidade de ampliação com qualidade e atenção às demandas e necessidades da sociedade e do desenvolvimento do país, pelo seu bom e pleno funcionamento, é grande. Implica o enfrentamento de desafios que merecerão dedicação e esforços iguais ou maiores que aqueles já empregados na construção do sistema básico.

Apresento aqui cinco desses desafios, cuja superação é crucial para a saúde e o bom funcionamento do próprio sistema de C&T, para o reconhecimento de sua utilidade pela sociedade e para que as atividades dos cientistas contribuam para o equilíbrio social e regional do país.

O primeiro deles é a deficiente educação básica e média. A superação desse desafio requer o engajamento da comunidade científica. Não podemos nos furtar à participação, especialmente na questão do ensino das ciências e da matemática. As nossas melhores universidades devem priorizar a formação de bons professores, e em boa quantidade. Isso não vem ocorrendo. Pelo contrário, a formação de professores está sendo relegada àquelas instituições mais destituídas de condições e qualidades. Educação de qualidade é o mais importante requisito para a inclusão social.

A ampliação de vagas nas universidades públicas, sem perder a qualidade, é outro desafio. A vaga em instituição pública é a que de fato está aberta para os filhos da nova classe média, e o atendimento da demanda por profissionais de ensino superior e técnico é condição indispensável para o desenvolvimento do país. A ciência brasileira está basicamente (cerca de 70%) localizada no Sudeste. Por razões estratégicas e de justiça federativa é uma situação que não pode perdurar, como um desafio para o planejamento estratégico e para as políticas de C&T. Temos de redirecionar investimentos federais e estimular fundações de amparo à pesquisa (Faps) locais, como já ocorre em alguns estados.

Em regiões como a Amazônia, o semiárido e a Plataforma Continental Marinha, o conhecimento científico é indispensável para uma intervenção econômica sustentável. É imperativa a atuação do sistema de ciência, tecnologia e inovação (C,T&I) nessas áreas. O aspecto estratégico impõe o desafi o de equacionar devidamente essa questão como forma de amenizar dificuldades regionais.

Outro desafio está na necessidade de aproximação entre o sistema universitário e as atividades de pesquisa e desenvolvimento (P&D) nas empresas. O Brasil já aprendeu a transformar recursos fi nanceiros em conhecimento; agora, precisamos aprender a transformar conhecimento em riqueza. Além do estímulo à participação de pesquisadores em projetos de interesse da empresa, mecanismos como incubadoras de empresas nascentes nas universidades, parques tecnológicos congregando universidades, centros de pesquisas e empresas com interesse em tecnologia e inovação, podem ser estimulados por políticas públicas para criar pontes de cooperação, em benefício da economia nacional.

Finalmente, há o desafio de superar um gargalo que decorre do fato de a C&T ser atividade recente entre nós. Sendo transversal a todas as outras, sua superação é importante para a boa fluência das demais. Legislações desenvolvidas em outras épocas e situações, voltadas para outros propósitos são confrontadas e/ou questionadas sistematicamente pelas atividades demandadas pelo desenvolvimento científico e tecnológico do país. São exemplos a coleta de material biológico de nossa biodiversidade, o uso de animais em experimentos científicos, a coleta e o uso de células-tronco embrionárias, as impropriedades legais na cooperação entre entidades científicas públicas e empresas privadas, o regime “ultrarrápido” nas importações de insumos científicos, e muitos outros.

Alguns avanços estão ocorrendo, como a nova lei que regulamenta o uso de animais em pesquisa, a decisão do Supremo Tribunal Federal (STF) sobre células-tronco, a Lei de Inovação e a Lei do Bem. Mas entendemos que uma revisão geral para identifi cação de gargalos, incluindo um estudo sobre o status institucional das organizações de pesquisa e o regime de contratação de pessoal, entre outros, é absolutamente indispensável.


++++++++++++++++++++
Marco Antonio Raupp é matemático, ex-diretor geral do Instituto Nacional de Pesquisas Espaciais (Inpe) e presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC)

quarta-feira, 5 de maio de 2010

Cientista Propõe Teoria Unificada da Inteligência Artificial

Por: Larry Hardesty - MIT - 19/04/2010

Regras do pensamento

Nas décadas de 1950 e 1960, os pesquisadores da nascente inteligência artificial dedicaram-se à tentativa de descobrir como o pensamento funciona - e em que regras esse funcionamento se baseia.

Mas essas regras logo revelaram-se muito mais complicadas do que se poderia imaginar.

Desde então, as pesquisas sobre a inteligência artificial têm-se apoiado, não em regras bem definidas, mas em probabilidades - padrões estatísticos que os computadores podem aprender a partir da análise de grandes conjuntos de dados, os chamados dados de treinamento.


Inteligência probabilística

O enfoque probabilístico tem sido responsável pela maior parte dos progressos recentes no campo da inteligência artificial, como os sistemas de reconhecimento de voz ou de tradução automatizada de textos entre idiomas diferentes.

Mas Noah Goodman, um cientista do MIT, que divide seu tempo entre o departamento de Ciências Cognitivas e Cerebrais e o laboratório de Ciência da Computação e Inteligência Artificial, acha que a inteligência artificial cedeu muito quando desistiu das regras.

Ao combinar os antigos sistemas baseados em regras com insights dos sistemas probabilísticos mais recentes, Goodman descobriu uma forma para modelar o pensamento que poderá ter grandes implicações para o campo da inteligência artificial e para a ciência cognitiva.


Linguagem matemática

Os primeiros pesquisadores da inteligência artificial viam o pensar como uma inferência lógica: se você sabe que as aves podem voar e se lhe for informado que um pintassilgo é uma ave, você pode deduzir que os pintassilgos podem voar.

Um dos primeiros projetos de inteligência artificial foi o desenvolvimento de uma linguagem matemática - muito parecida com uma linguagem de computador - por meio da qual os pesquisadores pudessem codificar afirmações como "as aves podem voar" e "pintassilgos são aves."

Se essa linguagem fosse rigorosa o suficiente, algoritmos de computador seriam capazes de rastrear alegações escritas com ela e calcular todas as deduções logicamente válidas.

Assim que tivessem desenvolvido linguagens como essa, os pesquisadores poderiam começar a usá-las para codificar montanhas de afirmações do senso comum, que seriam armazenadas em gigantescas bases de dados.


Solução braçal

O problema com esta abordagem é que, por exemplo, nem todas as aves podem voar. E entre as aves que não voam, há diferenças fundamentais entre um canarinho que não pode voar porque está em uma gaiola e um canarinho que não voa por estar com uma asa quebrada, e uma outra distinção totalmente diferente entre os canarinhos em qualquer situação e um pinguim.

As linguagens matemáticas que os primeiros pesquisadores da inteligência artificial desenvolveram eram flexíveis o suficiente para representar essas distinções conceituais, mas escrever todas as distinções necessárias mesmo para as tarefas cognitivas mais rudimentares mostrou ser muito mais difícil do que o previsto.


Incerteza das informações

Na inteligência artificial probabilística, por outro lado, um computador é alimentado com montanhas de exemplos de alguma coisa - como fotos de pássaros - e é levado a deduzir, por conta própria, o que esses exemplos têm em comum.

Essa abordagem funciona muito bem com conceitos concretos, como "ave", mas tem problemas com conceitos mais abstratos - por exemplo, voar, uma capacidade compartilhada por pássaros, helicópteros, pipas e super-heróis.

Pode-se apresentar montanhas de imagens de coisas em pleno voo a um sistema probabilístico, mas mesmo que ele consiga descobrir o que todas elas têm em comum, muito provavelmente ele irá incorretamente identificar nuvens, ou o sol ou as antenas no topo dos edifícios, como instâncias de voo.

E há que se considerar que "voo" é um conceito concreto quando comparado a outros como, digamos, "gramática" ou "maternidade".


Linguagem Church

Como uma ferramenta de pesquisa, Goodman desenvolveu uma linguagem de programação chamada Church - em homenagem ao grande lógico norte-americano Alonzo Church - que, como as primeiras linguagens da inteligência artificial, inclui regras de inferência.

Mas as regras da linguagem Church são probabilísticas.

Estabelecido que um pintassilgo é uma ave, um programa escrito em Church é capaz de concluir que os pintassilgos provavelmente podem voar. Mas se for informado ao programa que um pintassilgo pode pesar quase 100 quilogramas, ele pode rever a sua estimativa de probabilidade inicial, concluindo que, na verdade, os pintassilgos provavelmente não podem voar.

"Com o raciocínio probabilístico, você tem a a estruturação de graça," diz Goodman. Um programa em Church que nunca se deparou com um pássaro que não pode voar inicialmente vai definir a probabilidade de que qualquer pássaro voe em 99,99 por cento.

Mas, conforme ele aprende mais sobre emas, pinguins e pintassilgos em gaiolas e com as asas quebradas, ele revê suas probabilidades para levar em conta as novas informações.

Solução artificial

Em última instância, as probabilidades representam todas as distinções conceituais que os primeiros pesquisadores de inteligência artificial teriam de codificar manualmente.

Mas o sistema em Church aprende essas distinções por si mesmo, ao longo do tempo - de forma muito parecida com que os seres humanos aprendem novos conceitos e reveem os antigos.

"O que é brilhante aqui é que o sistema permite que você construa um modelo cognitivo de uma forma fantasticamente mais simples e transparente do que era possível até agora," comenta Nick Chater, professor de ciências cognitivas e da Universidade College London.

"Você pode pensar em todas as coisas que um ser humano conhece - tentar listá-las seria uma tarefa sem fim. Mas o truque mágico aqui está dizendo, 'Não, diga-me apenas algumas poucas coisas, e então o cérebro - ou neste caso, o sistema em Church - pode fazer o resto, usando o cálculo probabilístico e traçando todas as consequências e inferências. E também, quando você dá novas informações ao sistema, ele pode descobrir as consequências dessas novas informações," diz Chater.


Simuladores da mente

Mas Chater também adverte que, embora os programas em Church tenham um excelente desempenho em tarefas específicas, atualmente eles exigem recursos computacionais intensivos demais para servirem como "simuladores da mente" de propósito geral.

"Isto é um problema sério se você estiver pensando em rodar programas em Church para resolver todos os problemas do mundo," diz Chater. "Mas o sistema acabou de ser construído, e estas coisas são sempre muito mal otimizadas em suas primeiras versões."

Chater salienta ainda que simplesmente fazer o sistema funcionar já é um grande feito: "É o tipo de coisa que alguém poderia produzir como uma sugestão teórica, e você pensa, 'Uau, isso é fantasticamente inteligente, mas eu tenho certeza de que você nunca vai fazê-lo funcionar na prática.' E o milagre é que o sistema roda, e funciona."

Mais informações sobre a linguagem Church podem ser obtidas no site http://projects.csail.mit.edu/church/wiki/Church.

Criado um Processador Molecular que Imita o Cérebro Humano

Por: Redação do Site Inovação Tecnológica - 26/04/2010

Uma equipe de pesquisadores do Japão e dos Estados Unidos anunciou a criação de um circuito capaz de evoluir e resolver problemas extremamente complexos de forma naturalmente paralela, de forma semelhante ao que acontece no cérebro humano.

Inserido nas pesquisas da chamada computação molecular, o feito inédito representa uma mudança de paradigma em relação à atual computação digital, baseada na solução sequencial de problemas.

Segundo os cientistas, o circuito molecular orgânico é a primeira demonstração prática já feita de um "circuito capaz de evoluir", inspirado no mesmo processo usado pelo cérebro humano.

Processamento neural


Os circuitos de processamento de dados dos computadores digitais são estáticos - uma vez construídos, eles serão capazes de fazer sempre as mesmas operações.

Nos nossos cérebros, ao contrário, os circuitos de processamento de informações - os neurônios e suas redes - evoluem continuamente para resolver problemas novos e mais complexos.

"Os computadores modernos são muito rápidos, capazes de executar trilhões de operações por segundo. Nossos neurônios, por outro lado, somente disparam cerca de mil vezes por segundo. Mas isso me permite ver você, reconhecê-lo, falar com você e ouvir alguém andando no corredor, tudo simultaneamente. Isso é uma tarefa impraticável mesmo para o mais rápido supercomputador," disse Ranjit Pati, um dos autores do trabalho.

Pati afirma que o computador molecular foi ideia do seu colega Anirban Bandyopadhyay, ambos atualmente pesquisadores da Universidade Tecnológica de Michigan. Seus colaboradores japoneses trabalham no Instituto Nacional de Ciências dos Materiais e no Instituto de Tecnologia da Informação do Japão.


Processamento paralelo


Apesar da aparente lentidão do cérebro humano em relação aos computadores - comparando a velocidade de chaveamento dos transistores (1013) e a velocidade de disparo dos neurônios (103) - os computadores atuais somente operam sequencialmente. Uma vez estabelecida uma rota ao longo do seu circuito, isto nunca irá mudar.

No nosso cérebro, ao contrário, os impulsos elétricos formam vastas redes dinâmicas, que evoluem constantemente, e que operam coletivamente. É por isto que é tão difícil transportar a forma de resolver problemas do cérebro humano para os computadores.

Da mesma forma, o "circuito evolutivo" deste novo processador molecular é massivamente paralelo, permitindo interconexões simultâneas de até 300 bits.


Processador molecular evolutivo


Para construir o seu processador orgânico evolucionário, os cientistas usaram a DDQ, uma molécula hexagonal feita de nitrogênio, oxigênio, cloro e carbono. As moléculas DDQ se estabeleceram por conta própria, em um processo chamado automontagem, formando duas camadas sobre um substrato de ouro.

As moléculas DDQ podem chavear entre quatro estados condutores - 0, 1, 2 e 3 - ao contrário dos sistemas binários dos computadores digitais, que estão limitados a 0s e 1s.

"A melhor parte é que aproximadamente 300 moléculas 'falam' umas com as outras de uma vez só durante o processamento das informações," explica Pati. "Nós realmente imitamos como os neurônios se comportam no cérebro."


Solução de problemas intratáveis

As cadeias de chaves moleculares, capazes de interagirem simultaneamente, poderão permitir a solução de problemas hoje intratáveis e para os quais não existem nem mesmo algoritmos que possam ser codificados para rodarem nos computadores atuais.

Isto está levando os cientistas a considerarem que essa nova arquitetura, se tornada prática, será capaz de produzir soluções para problemas como a previsão de calamidades naturais ou o surgimento de epidemias - exemplos de situações complexas demais para os computadores atuais.

Para demonstrar essa capacidade, os cientistas simularam dois fenômenos naturais utilizando apenas seu processador molecular: a difusão de calor e a evolução de células cancerosas. Eles também resolveram problemas de lógica clássica, incluindo os complicados diagramas de Voronoi.

Arquitetura paralela

Como é baseado em uma camada molecular orgânica, o novo processador biologicamente inspirado ainda é capaz de se autoconsertar se surgir algum defeito - da mesma forma que, quando um neurônio morre, outro neurônio assume sua função.

"Além de representar uma mudança conceitual do processamento serial com arquiteturas estáticas, nossa abordagem paralela e dinamicamente reconfigurável poderá fornecer meios de resolver problemas computacionais intratáveis por qualquer outro meio," dizem os pesquisadores em seu artigo.

Bibliografia:

Massively parallel computing on an organic molecular layer
Anirban Bandyopadhyay, Ranjit Pati, Satyajit Sahu, Ferdinand Peper, Daisuke Fujita
Nature Physics
25 April 2010
Vol.: Published online before print
DOI: 10.1038/nphys1636

segunda-feira, 3 de maio de 2010

Economia do Saber

Por DR. SOFIANE LABIDI
Jornal Pequeno, 7 de março de 2010 às 10:44


Em um mundo moderno onde a única certeza é a mudança, apenas o conhecimento é uma fonte segura de vantagem competitiva. O conhecimento passou a ocupar uma posição essencial no desenvolvimento das forças produtivas. As empresas de sucesso são aquelas que, de forma consistente, criam novos conhecimentos, os disseminam e os incorporam para gerar novas tecnologias e produtos. Isso caracteriza a empresa criadora de conhecimento cuja inovação contínua é seu negócio.


As transformações ocorridas nos últimos anos estão nos levando a um novo modelo, um novo paradigma de organização da economia e da sociedade. Estamos assistindo à emergência de uma nova economia: a "economia do conhecimento" mais conhecida como a "economia do saber" na qual, a pesquisa e a inovação técnico-científica são os motores da produção e do desenvolvimento. Na sociedade do saber, o recurso controlador não é mais o capital, a terra ou a mão-de-obra, mas, sim, o conhecimento, a capacidade e a experiência. A sociedade do saber é fundamentada no princípio que o conhecimento constitua o maior elemento do desenvolvimento da atividade humana. Uma sociedade do saber cria, compartilha, e usa o saber para a prosperidade e o bem estar de seus cidadãos. A relação entre conhecimento e desenvolvimento é fundamental para a construção da sociedade do saber, pois o saber, além de ser uma ferramenta para a satisfação das necessidades econômicas, é um elemento fundamental para o crescimento humano.


Para enfrentar seus desafios, uma cidade, uma região ou uma nação, deve melhor apreender o conceito da economia do saber para melhor integrá-la às suas estratégias de desenvolvimento e adaptá-la de forma eficiente aos seus contextos econômicos. Tanto para os indivíduos, empresas ou governos; sobrevive hoje quem sabe mais, quem sabe aprender e quem aprende mais rápido.


Porém, o conceito de economia do saber não é tão recente. Logo nos anos 50, foi observada uma expansão gradual das atividades não-agrícolas e não-industriais. A tal economia emergente, foi referida na época como economia pós-industrial e em seguida como "indústria baseada no conhecimento" e "capitalismo cognitivo" quando foi descoberto que as ocupações ligadas à produção do conhecimento tinham ultrapassado as outras ocupações em quantidade. Logo no final dos anos 70, foi utilizado o termo "economia da informação". Mas, com a emergência das novas tecnologias (Internet, Web, Inteligência Artificial, etc.) esta economia amadureceu e cresceu rapidamente para a economia do conhecimento e do saber.


A economia do saber é caracterizada pelo aumento da participação do conhecimento na criação de valor agregado e por uma difusão rápida das novas tecnologias da informação. Assim, o tamanho da economia do saber pode ser medido pela parcela do setor no PIB (Produto Interno Bruto) total e portanto, ela não pode ser limitada apenas aos setores da tecnologia, mas deve envolver todos os setores de atividades desde que comprometidos com a geração de trabalho e a melhoria da produção.


É pela educação que se prepara a população para a entrada na nova era e que se constrói a sociedade do saber. De fato, há uma evidência histórica da relação entre educação e produtividade. Essa relação se consolidou ainda mais com o advento da sociedade do saber. Isso significa que, se quisermos realmente ser competitivos, teremos que mudar nosso modo de entender e de agir em relação à educação, pois o desenvolvimento das economias modernas que são baseadas no conhecimento aumenta ainda mais a importância da política educacional.


A demanda por formação é cada vez maior. Essa demanda não somente cresce como também sofre uma mutação profunda. Como vivemos na sociedade da mudança e da revolução tecnológica, a maioria do conhecimento adquirido no início de uma carreira fica praticamente obsoleto antes mesmo de seu término. Porém, até os anos 60, as competências adquiridas por uma pessoa permanecem quase inalteradas até o final de sua carreira. O estereótipo onde se aprende uma profissão na juventude para exercê-la ao longo da vida está ficando em xeque.


Os sistemas educacionais encontram-se desatualizados com relação à quantidade, diversidade e, principalmente, velocidade de evoluções dos saberes. Assim, a educação e a generalização do saber são nossos maiores desafios. Devemos considerar a transição de uma educação institucionalizada para uma troca de saberes. Devemos ampliar os mecanismos e o esforço pedagógico dos professores e formadores e investir mais na formação profissional e contínua. O pensador e filósofo da informação Pierre Lévy, por exemplo, propõe duas reformas fundamentais nos sistemas educacionais: o reconhecimento das novas formas de aprendizagem por meio das experiências social e profissional e não mais somente por meio das formas tradicionais; e a utilização do Ensino Virtual.


O impacto da evolução para a nova economia é muito grande. Com a economia do saber cria-se um ambiente competitivo que atraia e fixa novas empresas e encorajar a criação de novos empreendimentos locais. Ela orienta a geração de trabalho e de riquezas, fortalece a competitividade e o desenvolvimento inclusivo, sustentável, sólido, geral e equilibrado. Os novos paradigmas trazidos pela sociedade do saber têm muitas conseqüências: o fato que as competências profissionais se tornam obsoletas ao longo do tempo, a nova natureza do trabalho que valoriza a transação do conhecimento (aprender, transmitir, produzir), as novas formas de acesso à informação; e os novos estilos de raciocínio e conhecimento.


Infelizmente, é evidente a fraqueza do posicionamento do Maranhão quanto à economia do saber onde vários fatores impedem seu desenvolvimento. Deve-se, deste modo, adotar uma série de políticas que causam transformações importantes nos setores da educação, da inovação e das Tecnologias da Informação e Comunicação - TICs reforçando assim suas capacidades de formação, de tecnologia, e de produção fatores esses determinantes da competitividade e do desenvolvimento.


Além dos governos e do setor de tecnologia, todos os atores econômicos e sociais devem se sentir responsáveis pela criação do saber e a construção de competências tanto nas empresas como no setor público. Uma dinâmica coletiva requerendo a multiplicação das interações e das relações de cooperação entre todos os atores (Fiema, Sebrae, IEL, Senai, IEs, etc.), bem como uma política ambiciosa e inovadora de investimento no conhecimento estão se impondo. Iniciativas como a criação de parques tecnológicos, institutos e pólos de pesquisa e desenvolvimento, institutos e faculdades de tecnologia, empresas júnior, incubadoras de empresas, etc. são ações necessárias e urgentes para implantação e sucesso de tal economia.


É preciso também, investir em um grande projeto de formação e qualificação de recursos humanos e reforçar a cooperação intersetorial e o papel das empresas do setor privado e das organizações da sociedade civil organizada.


É preciso, portanto buscar modernizar o sistema educacional e encorajar investimentos maciços em todos os setores relacionados com o conhecimento e com as novas tecnologias. A economia do saber deve ser reconhecida como um elemento fundamental no desenvolvimento econômico e social das comunidades.


Acreditamos que apenas uma economia baseada no saber tem a capacidade de gerar uma verdadeira coesão social e que a ligação intrínseca entre o homem e o conhecimento é a essência mesmo desta nova tendência da história onde o homo sapiens prevalece sobre o homo faber.


Biografia
Sofiane Labidi é doutor em Inteligência Artificial (1995) pelo Instituto Francês de Pesquisa em Informática e Automática (INRIA). Tem graduação e mestrado em Ciência da Computação pela Universidade de Nice Sophia Antipolis (França). Dr. Labidi possui uma larga experiência em pesquisa e produção científica e tem vários artigos publicados em periódicos e congressos nacionais e internacionais na área de Inteligência Artificial. Ele foi coordenador de vários cursos de pós-graduação Lato Sensu, coordenador do Laboratório de Sistemas Inteligentes - LSI, da Ufma, onde coordenou vários projetos de Pesquisa e Desenvolvimento (P&D) e já formou mais de 40 mestres e doutores. Ele ministrou várias palestras no Brasil e no mundo e organizou vários congressos científicos. É editor de várias revistas internacionais, na área de Inteligência Artificial, e foi presidente do Simpósio Brasileiro de Inteligência Artificial (SBIA´2004). Dr. Labidi é consultor do Sebrae, na área de Gestão do Conhecimento, e membro fundador da Academia Maranhense de Ciência. Dr. Labidi ocupou vários cargos como coordenador do Núcleo de Educação à Distância em Saúde, do Pólo da Saúde do Maranhão; pró-reitor de Pesquisa da Universidade Virtual do Maranhão e diretor-presidente da Fundação de Amparo à Pesquisa do Estado do Maranhão (Fapema). Atualmente é assessor especial do prefeito de São Luis, João Castelo.

quinta-feira, 29 de abril de 2010

O Business Intelligence e a Análise do Ambiente

João Sidemar Serain Quinta-feira, 20 de setembro de 2007
Fonte: http://imasters.uol.com.br/

A Análise do Ambiente é o processo de identificação de oportunidades, ameaças, forças e fraquezas que afetam a empresa no cumprimento da sua missão. Tomemos como exemplo uma ostra.

Um pequeno grão de areia invade seu interior, e por algum tempo ela precisa conviver com aquele ser estranho dentro de si, o que deve provocar certo desconforto, mas com o passar do tempo, aquilo que antes era um grão de areia, transforma-se numa valiosa pérola.

Neste caso vemos que um fator externo agiu sobre a ostra, transformando uma ameaça em uma oportunidade. Este é um caso simples, mas que podemos trazê-lo para o mundo dos negócios.

Para os que temem mudanças, Peter Drucker adverte: "Mudanças são oportunidades. Podem ser vistas como ameaças por muitos executivos - mas todas precisam ser exploradas como uma oportunidade - para fazer algo de diferente, algo de novo e, acima de tudo, para fazer algo melhor, algo mais produtivo e lucrativo".

As oportunidades podem estar em qualquer lugar e surgir a qualquer momento. São janelas que se abrem por certo tempo e se fecham rapidamente. Isto pode acontecer tanto em nossas vidas como também dentro das empresas.

As forças externas que agem sobre uma organização, têm um papel determinante no seu desenvolvimento. Se, por um lado, ocasionam uma pressão fortíssima no sentido de impor crescentes dificuldades, por outro, proporcionam um ambiente de seleção natural, onde as melhores e mais preparadas sobrevivem. Esta analogia com as teorias de Charles Darwin não é inédita no âmbito empresarial, mas ela não se aplica no sentido literal. Enquanto o darwinismo pregava que indivíduos mais favorecidos pela sua natureza sobrepujavam aos menos favorecidos, no mundo dos negócios as empresas podem almejar mudar suas naturezas de fracas a fortes, de lentas a ágeis, de dominadas a dominantes.

Diariamente, milhares de empresas trabalham na busca desta evolução, materializada pelos esforços de seus dirigentes. E estas perguntas estão na mente de todos os executivos do mundo todo:

• Como multiplicar os clientes?
• Como garantir sua fidelidade?
• Como reduzir os estoques sem prejudicar as vendas?
• Como garantir melhores margens de lucro?

Elas ficam ainda mais complexas, uma vez que para respondê-las é necessária uma compreensão de um ambiente externo em constante mutação. E na busca de resolver esta equação, mais e mais ferramentas são colocadas a disposição das empresas, servindo de instrumento para sua evolução neste cenário.

Propósito do Business Intelligence

O BI foi feito para gestores que buscam um melhor entendimento destes cenários, tanto internos como externos, e para isto se propõe a coletar dados dos mais diversos ambientes e áreas da empresa,preparando demonstrativos de desempenho, traçando comparativos e elaborando projeções.

As tecnologias mais utilizadas em BI são:

• Data Warehouses
• Ferramentas de ETL
• Data Marts
• Data Mining
• Geradores de relatórios e consultas
• Ferramentas OLAP / EIS / DSS

Quando falamos de aplicações para negócio, lidamos com dois tipos distintos: Aplicações que Sustentam o Negócio e Aplicações que Analisam o Negócio

Aplicações que sustentam o negócio são compostas por Sistemas OLTP (On-line Transaction Processing, ou Processamento de Transações em Tempo-Real) que trazem retorno de investimento baseado no melhor desempenho do negócio. Sua principal característica é o controle e o registro de transações.

Aplicações que analisam o negócio, são as aplicações de apoio à tomada de decisão mais conhecidas como ferramentas OLAP (On-Line Analytical Processing ou Processamento Analítico em Tempo-Real). Nessas, o retorno do investimento são baseados no melhor conhecimento do negócio. Elas utilizam como fonte de dados os mesmos sistemas de Controle, mas têm como preocupação principal a identificação de tendências.

A diferença principal entre estas duas aplicações, é que enquanto as que Sustentam o Negócio atualizam os dados durante o dia em tempo real, as que Analisam o Negócio são atualizados geralmente em processos batch noturnos, através dos mecanismos de ETL.

O grande problema de uma corporação que conta primordialmente com sistemas OLTP, é que possui muito dado e pouca informação. Sistemas de BI devem ser capazes não apenas de transformar dados em informação, mas utilizar estas informações e mostrar seu impacto nos negócios da empresa.

Existe uma máxima que diz que "A falta de informação leva os executivos a tomarem decisões erradas, e o excesso também.".

Como vocês já devem ter notado, todo BI requer um DW (Data Warehouse) ou Data Mart (Repositório de Dados). Estes por sua vez possuem rotinas de ETL (Extração, Transformação e Carga dos Dados), que trazem as informações de Ambientes Externos fazendo: Tratamentos, Agregações e Sumarizações.

Costumo dizer que é nesta fase que está "O pulo do gato", e se alguma coisa der errada aqui, todo o restante do projeto pode ficar comprometido. Sem deixar de lembrar a fase anterior, da Modelagem de Dados, também deve ser construída com muita atenção pelo profissional responsável e precisa ter uma visão clara do negócio. A fase de construção de um ETL geralmente costuma ser subestimada pela maioria dos projetistas e sua construção pode variar de sete meses a um ano.

Um bom projeto de BI deve ser feito modularmente, com a construção de pequenos Data Marts, cujos resultados passam a ser vistos rapidamente. Uma abordagem mais corporativa que vise a construção de um grande DataWarehouse, já mostrou não ser uma boa opção, por que o projeto torna-se demasiadamente longo (mais de um ano) e caro (algumas centenas de milhares de dólares). Contudo, um projeto com abordagem departamental deve ser construído com cuidado para que haja total integração com os Data Marts existentes, e o DW não necessite ser retrabalhado no futuro.

Como saber se sua empresa necessita de um BI?
• Quando possuir diversas fontes de dados
• Dificuldade de acesso as informações
• Informações centralizadas em pessoas e não em processos
• Grande número de produtos, clientes, fornecedores...
• Grande volume de dados
• Necessidade de acesso as informações históricas
• Difícil acesso aos relatórios gerenciais
• Possui uma visão departamentalizada
• Muito dado e pouca informação
• A informação não está disponível quando se precisa
• Tempo reduzido para a tomada de decisões

Se sua empresa possui algumas destas deficiências, está na hora de começar a pensar em implementar um projeto de Business Intelligence o quanto antes.

quarta-feira, 28 de abril de 2010

Prorrogado o prazo de inscrições do PIBIC-UFMA 2010

A Pró-reitoria de Pesquisa e Pós-Graduação da UFMA (PPPG) e a Coordenação do PIBIC-UFMA informam aos candidatos e orientadores que o prazo para submissão de propostas ao PIBIC-UFMA foi estendido até o dia 16 de maio. Tal prorrogação foi necessária em face da plataforma do PIBIC está sendo utilizada pela primeira vez pelos pesquisadores.

A coordenação informa que está disponível na sala da coordenação do PIBIC para os pesquisadores um computador para tirar suas dúvidas sobre o edital ou obter auxílio na sua submissão e solicitamos também que os pesquisadores tenham atenção com os informes da plataforma com relação à inserção de planos de trabalhos, projetos e submissão das propostas, a qual consiste do conjunto de projetos e planos de trabalhos inseridos na plataforma.

Enfatizamos que quanto à anexação de arquivos PDF, sobretudo das aprovações, o pesquisador necessita colocar apenas um arquivo constando de uma aprovação (ou termo de compromisso com agência, departamento ou centro) e apenas um arquivo de protocolo/aprovação de comitê de ética (quando necessário).

Para mais informações, acesse: http://www.pppg.ufma.br/pibic/

Lugar: UFMA/ASCOM
Fonte: Marina Farias/UFMA/ASCOM
Notícia alterada em: 28/04/2010 11h10

quinta-feira, 15 de abril de 2010

SKINPUT: Pele Substitui Touchpads e Telas Sensíveis ao Toque

Redação do Site Inovação Tecnológica - 13/04/2010

SENSORES BIOACÚSTICOS



Esqueça os touchpads dos notebooks ou as telas sensíveis ao toque de computadores, celulares e outros equipamentos portáteis.

Uma combinação de sensores bioacústicos e um programa de inteligência artificial pode transformar os dedos, os braços - ou virtualmente qualquer parte do corpo - em um teclado virtual para controlar telefones celulares inteligentes e outros equipamentos eletrônicos.

A tecnologia, batizada de Skinput - uma mescla de skin (pele) e input (entrada de dados), foi desenvolvida por Chris Harrison e Desney Tan Dan Morris, da Universidade Carnegie Mellon, nos Estados Unidos.

TECLADO VIRTUAL
O Skinput foi apresentado nesta segunda-feira (12/04) durante a conferência anual Fatores Humanos nos Sistemas de Computação, realizada em Atlanta.

A inspiração para o desenvolvimento dessa "interface natural", segundo os pesquisadores, veio do crescente aumento do poder computacional dos equipamentos portáteis.
Contudo, as dimensões dos smartphones, dos tocadores de MP3 e de outros equipamentos portáteis - dimensões que caminham no sentido oposto do seu poder de processamento - torna difícil sua utilização, limitando seu uso potencial pela dificuldade de acionar seus teclados ou suas telas sensíveis ao toque.

"Com o Skinput, nós podemos usar nossa própria pele - o maior órgão do corpo humano - como um dispositivo de entrada", disse Harrison. "É meio louco pensar que poderíamos criar interfaces em nossos corpos mas, no final das contas, isso faz muito sentido. Nossa pele está sempre conosco, tornando-se a superfície de toque interativa por excelência."

SENSOR ACÚSTICO E INTELIGÊNCIA ARTIFICIAL
No protótipo de teclado virtual apresentado na conferência, os sensores acústicos estão ligados ao antebraço. Esses sensores captam o som gerado por ações como bater levemente com os dedos ou simplesmente tocar no antebraço.

O som captado não é o que é transmitido através do ar, mas aquele que vem por ondas transversais através da pele, e por ondas longitudinais, ou de compressão, que viajam através dos ossos.

Harrison descobriu que o toque de cada dedo sobre diversas localizações ao longo braço produz uma assinatura acústica única, que pode ser identificada por um programa de aprendizagem de máquina.

O programa de inteligência artificial, que melhora seu desempenho à medida que é usado, é capaz de determinar a assinatura de cada toque analisando 186 diferentes características dos sinais acústicos, incluindo sua frequência e amplitude.

TECLADO NA PELE




Em um teste envolvendo 20 voluntários o teclado virtual projetado sobre a pele foi capaz de identificar as entradas com 88 por cento de exatidão.
A precisão depende da proximidade do toque com os sensores: toques no antebraço puderam ser identificadas com 96 por cento de exatidão quando os sensores estavam fixados abaixo do cotovelo.

"Não há nada de super sofisticado sobre o sensor em si", disse Harrison, "mas ele exige um certo processamento especial. É como um tipo de mouse - a mecânica do sensor em si não é revolucionária, mas ele está sendo usado de uma maneira revolucionária."

O sensor do Skinput é formado por uma matriz de sensores de vibração de alta precisão, feitos com películas piezoelétricas, montados de forma a poderem oscilar.

Além da braçadeira com os sensores e o programa de interpretação dos dados, o Skinput inclui um pequeno projetor para desenhar o teclado sobre a pele.

PROPRIOCEPÇÃO
Equipamentos simples, como tocadores de MP3, podem ser controlados simplesmente tocando a pele com a ponta dos dedos, sem a necessidade da projeção dos botões - ou seja, o teclado seria ainda mais virtual, sem nem mesmo a imagem projetada.

Na verdade, o Skinput pode tirar proveito da propriocepção - o sentido que uma pessoa tem da configuração do próprio corpo, permitindo a interação sem nem mesmo olhar para a pele - veja mais em Visão através da pele: esoterismo ou revolução na captura de imagens?

Embora o protótipo ainda seja grande e projetado para se encaixar no braço, a matriz de sensores pode ser facilmente miniaturizada, chegando ao tamanho de um relógio de pulso.
Restrições

Os testes indicaram que a precisão do Skinput é menor nas pessoas mais gordinhas, e a idade e o sexo também podem afetar a precisão. O uso da interface correndo ou andando também pode gerar ruído e degradar os sinais.

Mas, argumentam os pesquisadores, a quantidade de testes foi limitada, e a precisão provavelmente seria melhor se o programa de inteligência artificial tivesse oportunidade de colher mais informações em tais condições.


Fonte: Site Inovação Tecnológica- www.inovacaotecnologica.com.br URL: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=teclado-virtual-na-pele

A pauta é: Ciência, Tecnologia e Inovação

Prof.º Dr. Sofiane labidi
Jornal Pequeno – 04/04/2010

O Brasil é bem-sucedido no que diz respeito à geração de conhecimento tendo uma produção científica que corresponde a 2,5% da produção mundial. Apesar disso, o Brasil responde por apenas 0,1% das patentes depositadas no mundo. Patente, é um monopólio concedido pelo Estado (por meio do Instituto Nacional de Propriedade Industrial - INPI), durante um certo período de tempo (15 a 20 anos) em troca da proteção e da divulgação de uma invenção. A geração de patentes é um indicador fundamental que mede o quanto um País ou um Município é inovador e condiciona, portanto, seu grau de competitividade.

Como consequência desse mau desempenho na geração de Inovações e patentes, o Brasil ficou na 56ª posição no ranking mundial de competitividade, de acordo com o Relatório de Competitividade Global divulgado pela escola mundial de negócios (INSEAD) e o Fórum Econômico Mundial (WEF) em 2009. Tais estudos mostrarem também que o Brasil continua sendo o país menos competitivo entre os BRICs - bloco econômico dos países emergentes formado por Brasil, Rússia, Índia e China.

Isso é causado principalmente pela falta de incentivo à Pesquisa e à Inovação e pelo baixo investimento na formação e capacitação de Doutores no exterior. Esse último ponto constitua uma política equivocada que foi adotada pelo Governo Brasileiro desde 2005 e que está tendo um reflexo negativo sobre o Sistema. De fato, o Brasil embora tendo excelentes cursos de Mestrado, os programas de doutorado no País não atingirem ainda o nível de excelência exigido internacionalmente.

Somente em 2004 que políticas governamentais de incentivo à inovação foram iniciadas para corrigir essas distorções. O marco regulatório da inovação no Brasil é constituído pelos seguintes instrumentos: Lei da Inovação (Lei Nº 10.973/2004), Lei do Bem (Lei Nº 11.196/ 2005); Lei de Informática (Lei Nº 11.077/2004); Lei Rouanet da C&T (Lei Nº 11.487/2007); Lei Complementar (Lei Nº 123/2006); e o Estatuto Nacional da Microempresa e da Empresa de Pequeno Porte. Em 2009, um decreto presidencial instaurou o Dia Nacional da Inovação em 19 de outubro de cada ano. O Brasil traçou também, como meta para 2010, triplicar os investimentos em Pesquisa e Desenvolvimento - P&D para atingir 1,5% do Produto Interno Bruto - PIB que até então nunca ultrapassam os 0,4% do PIB.

Apesar de todos os esforços, a cultura da inovação continua muito tímida localmente, regionalmente e nacionalmente. A exemplo do Maranhão, o Nordeste Brasileiro apresenta apenas 5% dos pedidos de patentes depositados no INPI.
É preciso, portanto, entender a importância do papel da Inovação na agenda empresarial, difundir e absorver a cultura da Inovação no mundo acadêmico e na sociedade, e investir fortemente na pesquisa e inovação como forma de geração de riquezas.

É por isso que o Brasil está apostando no tema colocando em pauta a Ciência, Tecnologia e Inovação para serem discutidas na quarta Conferência Nacional de Ciência, Tecnologia e Inovação - CNCTI. A primeira Conferência ocorreu em 1985 quando foi criado o ministério da ciência e tecnologia tendo o maranhense Renato Archer (1922-1996) na pasta. A segunda em 1995, e a terceira em 2005. A 4ª CNCTI foi instituída por meio do Decreto Presidencial de 3 de agosto de 2009, com o título "Política de Estado para Ciência, Tecnologia e Inovação com vista ao Desenvolvimento Sustentável" e será realizada de 26 a 28 de maio de 2010 em Brasília. A conferência tem por objetivo de auxiliar na construção da Política de Estado em Ciência, Tecnologia e Inovação do Brasil para o período de 2011-2014. A conferência focará quatro eixos principais: Sistema Nacional de Ciência, Tecnologia e Inovação; Inovação na Sociedade e nas Empresas; Pesquisa, Desenvolvimento e Inovação em Áreas Estratégicas; e Ciência, Tecnologia; e Inovação para o Desenvolvimento Social.

Como preparatório a este megaevento, estão sendo realizadas em todo o País, conferências Estaduais e Regionais. No Maranhão, a Conferência Estadual aconteceu nesta semana (nos dias 30 e 31 de março), organizada pela Secretaria de Estado de Ciência e Tecnologia, com a participação das nossas universidades e de diversos segmentos da sociedade (FIEMA, SENAI, SEBRAE, Prefeituras, etc.), com o intuito de Promover a Ciência e a Tecnologia no Maranhão e no Brasil identificando gargalos, buscando soluções e sugerindo políticas e propostas de ações na área. O evento foi muito rico e o que mais me agradou e me deixou bastante satisfeita é a participação maciça, responsável e de qualidade dos nossos jovens e estudantes vindos de todas as regiões do Maranhão. Esta mobilização da sociedade é também o fruto de muito trabalho árduo e sério, realizado nos últimos anos, interiorizando a ciência e a levando para o dia a dia das pessoas.

Há hoje uma consciência muito grande com relação à importância do conhecimento e uma convicção do que a ciência e tecnologia não podem ser limitadas a uma elite, mas sim interessam a todos. Basta olhar ao nosso redor para perceber o quanto a ciência e a tecnologia são importantes para todos. De fato, o que será de nós sem o carro, sem a caneta, sem o avião, sem o computador, sem a máquina fotográfica, sem o celular, sem a televisão? O que será de nosso agricultor sem os agrotóxicos, sem as ferramentas de trabalho? A nossa educação precisa da tecnologia, a saúde precisa da pesquisa e da tecnologia, todos precisam da ciência e da tecnologia! A Ciência é um campo transversal que mexe com todas as áreas e não há progresso para nenhuma área, sem o auxílio da ciência e da tecnologia.

Temos apenas duas opções de caminho a trilhar: ou (1) continuaremos sendo meros usuários e copiadores de modelos produzidos por terceiros, ou (2) tenhamos a coragem e a determinação de enfrentar o desafio e de apostar na implantação de uma base científica e de inovação sólida, que se adéqua a nossa realidade e que nos leva à condição de produtor de tecnologia.

Isto não é uma utopia e os casos de sucesso são inúmeros no Brasil e no mundo. Por exemplo, o Porto Digital de Pernambuco está revolucionando a economia local. Os Polos de Software de pequenos municípios como Bulmenau e Santa Rita Rita de Sapucaí, estão gerando milhares de empregos e divisas para seus municípios. Mas, o exemplo mais interessante é o da Coréia, um país que, alguns anos atrás, era considerando o lixo da Ásia, é, hoje, um dois países que mais gera inovações e patentes no mundo. Isto por que, alguns anos atrás, tomou a decisão de investir prioritariamente e maciçamente ciência, tecnologia e novação.

Vamos, portanto levar a proposta do Maranhão para conferência regional em Maceió. Vamos levar a proposta do Maranhão para o Brasil. Vamos fazer com que esta consciência seja compartilhada e acompanhada cada vez mais por nossos Governos. Na era do conhecimento, a P&D com foco na Inovação, passou a ser um elemento estratégico e motor do crescimento econômico sustentável, aumentando a produtividade e a competitividade, e criando mercados e conseqüentemente trabalho e renda para as pessoas.

Prof. Dr. Sofiane labidi.
soflabidi@gmail.com
twitter.com/slabidi

quinta-feira, 8 de abril de 2010

Telecomunicações e sociedade da informação: uma estratégia para o futuro

Desde a Grécia antiga o homem tenta entender o significado da inteligência. Pesquisadores das ciências cognitivas, psicólogos, pedagogos, filósofos, sociólogos, neurologistas, etc. estudam este fenômeno com o intuito de simular o pensamento e o raciocínio humano. Mas, só em 1956, durante um congresso no New Hampshire, que nasceu a "Inteligência Artificial" como a ciência que busca conceber máquinas capazes de reproduzir tarefas humanas inteligentes.

Não há ainda consenso sobre a definição deste fenômeno. De fato, apreender e simular a inteligência é uma das tarefas mais desafiadoras que o homem está tentando resolver. Para alguns pesquisadores, a inteligência é determinada por fatores genéticos e que, uma vez adquirida, pouco ela pode ser modificada. Para outros, a inteligência se desenvolva dependendo intimamente do contexto sócio-ambiental. Sabemos que o que caracteriza o homem em relação aos demais seres vivos é sua inteligência e que esta inteligência tem quatro características importantes. De fato, o homem é intencional (norteado pelos seus objetivos), racional (sabe escolher o melhor caminho para atingir seus objetivos), cognitivo (suas decisões são baseadas no conhecimento e no raciocino) e adaptativo (tem capacidades de se adequar às mudanças). Assim, podemos afirmar que um agente é inteligente se ele é intencional, racional, cognitivo e adaptativo.

Contudo, durante muito tempo, a concepção da inteligência foi a de uma grandeza passível de medição. Isto leva a entender que a inteligência pode ser quantificada por meio de testes psicométricos preparados especialmente para esta finalidade. Em 1859, Francis Galton (primo de Charles Darwin) desenvolveu uma série de testes para medir a inteligência, baseando-se na teoria de que o processo evolutivo decorria de uma seleção natural. Em 1905, o pedagogo e psicólogo Alfred Binet desenvolveu, a pedido do Ministério da Educação da França, um teste de inteligência para auxiliar na resolução do problema do baixo rendimento escolar das crianças das séries primárias. Binet propõe uma escala métrica que permitia de medir o desenvolvimento da inteligência das crianças de acordo com as suas idades cronológica (idade real) e mental (idade correspondendo ao seu nível cognitivo). A medida de Binet ficou conhecida como "Quociente Intelectual". O teste quantifica e classifica a capacidade intelectual das crianças individualmente a fim de colocá-las nas classes adequadas às suas capacidades cognitivas. De fato, Binet observou que o problema do ensino primário estava basicamente ligado ao fato das classes serem heterogêneas, i.e., em uma única classe havia alunos bem dotados e outros pouco dotados intelectualmente. Portanto, tornava-se imprescindível selecionar as crianças pelo grau de inteligência, para formar classes homogêneas. Assim, Alfred Binet foi o inventor do primeiro teste de inteligência abrindo as portas aos atuais e famosos testes de QI (Quociente de Inteligência). Tais testes são baseados em questões de caráter lógico-matemático e lingüístico. O sucesso dos testes de QI se tornou ainda maior quando, na primeira Guerra Mundial, cerca de um milhão de soldados norte-americanos foram recrutados por meio desse teste.

Com a popularização dos testes de QI, propagou-se a idéia da inteligência ser única, estática e passível de medição. Porém, muitos casos reais mostrarem os limites dos testes de QI para avaliar a inteligência humana. Foi assim que, Países do mundo inteiro celebraram no último domingo (17/05) o Dia Internacional das Telecomunicações e da Sociedade da Informação. O dia foi instituído por uma resolução da Assembléia Geral da Organização das Nações Unidas (ONU), dando seqüência aos encontros da Cúpula Mundial sobre a Sociedade da Informação, ocorridos em Genebra (2003) e Túnis (2005). O objetivo da Cúpula foi criar uma sociedade da informação aberta a todos, inclusiva, centrada nas pessoas, baseada no conhecimento, e que fosse capaz de acelerar o desenvolvimento.

O principal significado do Dia Mundial da Sociedade da Informação é chamar a atenção de toda humanidade para as mudanças da sociedade proporcionada pela Internet e pelas novas tecnologias. Visa também sensibilizar sobre a necessidade da redução da exclusão digital no mundo, destacando a relação entre as enormes potencialidades das Tecnologias de Informação e Comunicação (TIC) e seu impacto para acelerar o ritmo do desenvolvimento da sociedade.

Curiosamente, no Maranhão, esta data passou despercebida. Um estado carente como o nosso, precisa mais do que nunca de empenho e investimento nesta área. É necessário firmar parcerias entre setores público, privado e terceiro setor para impulsionar e expandir a cultura numérica e a sociedade do saber. Só assim, podemos proporcionar a emergência de uma nova era e de uma nova sociedade onde o saber, a ciência e o progresso serão compartilhados de uma forma mais justa entre os indivíduos.

A ONU apelou a todos os países membros que organizem atividades adequadas para as celebrações acerca do tema de cada ano. Em 2008, o Dia Mundial da Sociedade da Informação foi celebrado sob o título "Abrir o caminho para o desenvolvimento sustentável". Este ano, o tema foi "Permitir aos deficientes beneficiarem das tecnologias de informação e comunicação". De fato, estima-se que existe no mundo cerca de 700 milhões de pessoas portadoras de necessidades especiais. Este número chega a dois bilhões considerando seus familiares, ou seja, um terço da população mundial é afetado, pois tem pelo menos um familiar portador de necessidades especiais.

Neste contexto, a Sociedade Mundial da Informação acredita que a utilização das TICs poderá ter um papel fundamental ao serviço destas pessoas ao permitir conectá-los, integrá-los à sociedade e melhorar sua qualidade de vida. A máxima do sucesso da Sociedade da Informação é o acesso universal. Todos devem ter a mesma oportunidade de participar na era digital e, portanto não podemos tirar de ninguém o direito de usufruir dos benefícios das TICs, muito menos dos portadores de deficiência. Felizmente, as novas tecnologias desenvolvidas habilitam as pessoas com todos os tipos de deficiência a terem uma função ativa na sociedade de informação. Nesse mesmo dia, foram premiadas pela ONU, uma entidade que promove normas e tecnologias auxiliando pessoas com deficiências visuais (consórcio DAISY), e uma entidade que desenvolve ferramentas que promovem o acesso à Internet junto a portadoras de necessidades especiais (consórcio Andrea Saks).

Desde a era do telégrafo, passando pelas comunicações na era espacial, até a nova era do ciberespaço em que hoje estamos, as Tecnologias da Informação e Comunicação sempre ajudaram a conectar a humanidade. Hoje, muitas pessoas seriam incapazes de imaginar a sua vida sem a utilização dessas tecnologias cada vez mais sofisticadas. No entanto, para os milhões de habitantes das regiões mais pobres, continua a existir a "fratura digital" que os exclui dos benefícios das TICs.

Assim, as TICs assumiram um papel importante na sociedade contemporânea, pois são instrumentos cruciais para alcançar o progresso sócio-econômico. As tecnologias, com custos cada vez mais acessíveis, nas mãos das comunidades locais, podem ser motores de mudanças eficazes, tanto no plano social como no plano econômico. O acesso à informação e ao conhecimento é essencial para vencer a fome, proteger o meio ambiente e alcançar nosso objetivo de desenvolvimento.

No entanto, para aproveitar essas potencialidades, é indispensável que os governos estabeleçam prioridades como o fortalecimento desta área e a busca em firmar parcerias com o setor privado e a sociedade civil. Caso contrário, continuaremos a ser meros copiadores de modelos e usuários de tecnologias que outros desenvolverão. Precisamos entender que as políticas assistenciais nunca deram certo, elas ajudam, mas não resolvem o problema.

Ciente de que o progresso de um estado e de um país é a decorrência da posição que ele acorda à ciência e ao saber, acreditamos e incitamos que o investimento no conhecimento deve ser nossa maior escolha para o futuro e que a pesquisa científica e a inovação são os únicos meios para passarmos à nova economia e relevarmos os desafios da revolução tecnológica.

DR. SOFIANE LABIDI.
labidi@uol.com.br
twitter.com/slabidi