Páginas

quinta-feira, 29 de abril de 2010

O Business Intelligence e a Análise do Ambiente

João Sidemar Serain Quinta-feira, 20 de setembro de 2007
Fonte: http://imasters.uol.com.br/

A Análise do Ambiente é o processo de identificação de oportunidades, ameaças, forças e fraquezas que afetam a empresa no cumprimento da sua missão. Tomemos como exemplo uma ostra.

Um pequeno grão de areia invade seu interior, e por algum tempo ela precisa conviver com aquele ser estranho dentro de si, o que deve provocar certo desconforto, mas com o passar do tempo, aquilo que antes era um grão de areia, transforma-se numa valiosa pérola.

Neste caso vemos que um fator externo agiu sobre a ostra, transformando uma ameaça em uma oportunidade. Este é um caso simples, mas que podemos trazê-lo para o mundo dos negócios.

Para os que temem mudanças, Peter Drucker adverte: "Mudanças são oportunidades. Podem ser vistas como ameaças por muitos executivos - mas todas precisam ser exploradas como uma oportunidade - para fazer algo de diferente, algo de novo e, acima de tudo, para fazer algo melhor, algo mais produtivo e lucrativo".

As oportunidades podem estar em qualquer lugar e surgir a qualquer momento. São janelas que se abrem por certo tempo e se fecham rapidamente. Isto pode acontecer tanto em nossas vidas como também dentro das empresas.

As forças externas que agem sobre uma organização, têm um papel determinante no seu desenvolvimento. Se, por um lado, ocasionam uma pressão fortíssima no sentido de impor crescentes dificuldades, por outro, proporcionam um ambiente de seleção natural, onde as melhores e mais preparadas sobrevivem. Esta analogia com as teorias de Charles Darwin não é inédita no âmbito empresarial, mas ela não se aplica no sentido literal. Enquanto o darwinismo pregava que indivíduos mais favorecidos pela sua natureza sobrepujavam aos menos favorecidos, no mundo dos negócios as empresas podem almejar mudar suas naturezas de fracas a fortes, de lentas a ágeis, de dominadas a dominantes.

Diariamente, milhares de empresas trabalham na busca desta evolução, materializada pelos esforços de seus dirigentes. E estas perguntas estão na mente de todos os executivos do mundo todo:

• Como multiplicar os clientes?
• Como garantir sua fidelidade?
• Como reduzir os estoques sem prejudicar as vendas?
• Como garantir melhores margens de lucro?

Elas ficam ainda mais complexas, uma vez que para respondê-las é necessária uma compreensão de um ambiente externo em constante mutação. E na busca de resolver esta equação, mais e mais ferramentas são colocadas a disposição das empresas, servindo de instrumento para sua evolução neste cenário.

Propósito do Business Intelligence

O BI foi feito para gestores que buscam um melhor entendimento destes cenários, tanto internos como externos, e para isto se propõe a coletar dados dos mais diversos ambientes e áreas da empresa,preparando demonstrativos de desempenho, traçando comparativos e elaborando projeções.

As tecnologias mais utilizadas em BI são:

• Data Warehouses
• Ferramentas de ETL
• Data Marts
• Data Mining
• Geradores de relatórios e consultas
• Ferramentas OLAP / EIS / DSS

Quando falamos de aplicações para negócio, lidamos com dois tipos distintos: Aplicações que Sustentam o Negócio e Aplicações que Analisam o Negócio

Aplicações que sustentam o negócio são compostas por Sistemas OLTP (On-line Transaction Processing, ou Processamento de Transações em Tempo-Real) que trazem retorno de investimento baseado no melhor desempenho do negócio. Sua principal característica é o controle e o registro de transações.

Aplicações que analisam o negócio, são as aplicações de apoio à tomada de decisão mais conhecidas como ferramentas OLAP (On-Line Analytical Processing ou Processamento Analítico em Tempo-Real). Nessas, o retorno do investimento são baseados no melhor conhecimento do negócio. Elas utilizam como fonte de dados os mesmos sistemas de Controle, mas têm como preocupação principal a identificação de tendências.

A diferença principal entre estas duas aplicações, é que enquanto as que Sustentam o Negócio atualizam os dados durante o dia em tempo real, as que Analisam o Negócio são atualizados geralmente em processos batch noturnos, através dos mecanismos de ETL.

O grande problema de uma corporação que conta primordialmente com sistemas OLTP, é que possui muito dado e pouca informação. Sistemas de BI devem ser capazes não apenas de transformar dados em informação, mas utilizar estas informações e mostrar seu impacto nos negócios da empresa.

Existe uma máxima que diz que "A falta de informação leva os executivos a tomarem decisões erradas, e o excesso também.".

Como vocês já devem ter notado, todo BI requer um DW (Data Warehouse) ou Data Mart (Repositório de Dados). Estes por sua vez possuem rotinas de ETL (Extração, Transformação e Carga dos Dados), que trazem as informações de Ambientes Externos fazendo: Tratamentos, Agregações e Sumarizações.

Costumo dizer que é nesta fase que está "O pulo do gato", e se alguma coisa der errada aqui, todo o restante do projeto pode ficar comprometido. Sem deixar de lembrar a fase anterior, da Modelagem de Dados, também deve ser construída com muita atenção pelo profissional responsável e precisa ter uma visão clara do negócio. A fase de construção de um ETL geralmente costuma ser subestimada pela maioria dos projetistas e sua construção pode variar de sete meses a um ano.

Um bom projeto de BI deve ser feito modularmente, com a construção de pequenos Data Marts, cujos resultados passam a ser vistos rapidamente. Uma abordagem mais corporativa que vise a construção de um grande DataWarehouse, já mostrou não ser uma boa opção, por que o projeto torna-se demasiadamente longo (mais de um ano) e caro (algumas centenas de milhares de dólares). Contudo, um projeto com abordagem departamental deve ser construído com cuidado para que haja total integração com os Data Marts existentes, e o DW não necessite ser retrabalhado no futuro.

Como saber se sua empresa necessita de um BI?
• Quando possuir diversas fontes de dados
• Dificuldade de acesso as informações
• Informações centralizadas em pessoas e não em processos
• Grande número de produtos, clientes, fornecedores...
• Grande volume de dados
• Necessidade de acesso as informações históricas
• Difícil acesso aos relatórios gerenciais
• Possui uma visão departamentalizada
• Muito dado e pouca informação
• A informação não está disponível quando se precisa
• Tempo reduzido para a tomada de decisões

Se sua empresa possui algumas destas deficiências, está na hora de começar a pensar em implementar um projeto de Business Intelligence o quanto antes.

quarta-feira, 28 de abril de 2010

Prorrogado o prazo de inscrições do PIBIC-UFMA 2010

A Pró-reitoria de Pesquisa e Pós-Graduação da UFMA (PPPG) e a Coordenação do PIBIC-UFMA informam aos candidatos e orientadores que o prazo para submissão de propostas ao PIBIC-UFMA foi estendido até o dia 16 de maio. Tal prorrogação foi necessária em face da plataforma do PIBIC está sendo utilizada pela primeira vez pelos pesquisadores.

A coordenação informa que está disponível na sala da coordenação do PIBIC para os pesquisadores um computador para tirar suas dúvidas sobre o edital ou obter auxílio na sua submissão e solicitamos também que os pesquisadores tenham atenção com os informes da plataforma com relação à inserção de planos de trabalhos, projetos e submissão das propostas, a qual consiste do conjunto de projetos e planos de trabalhos inseridos na plataforma.

Enfatizamos que quanto à anexação de arquivos PDF, sobretudo das aprovações, o pesquisador necessita colocar apenas um arquivo constando de uma aprovação (ou termo de compromisso com agência, departamento ou centro) e apenas um arquivo de protocolo/aprovação de comitê de ética (quando necessário).

Para mais informações, acesse: http://www.pppg.ufma.br/pibic/

Lugar: UFMA/ASCOM
Fonte: Marina Farias/UFMA/ASCOM
Notícia alterada em: 28/04/2010 11h10

quinta-feira, 15 de abril de 2010

SKINPUT: Pele Substitui Touchpads e Telas Sensíveis ao Toque

Redação do Site Inovação Tecnológica - 13/04/2010

SENSORES BIOACÚSTICOS



Esqueça os touchpads dos notebooks ou as telas sensíveis ao toque de computadores, celulares e outros equipamentos portáteis.

Uma combinação de sensores bioacústicos e um programa de inteligência artificial pode transformar os dedos, os braços - ou virtualmente qualquer parte do corpo - em um teclado virtual para controlar telefones celulares inteligentes e outros equipamentos eletrônicos.

A tecnologia, batizada de Skinput - uma mescla de skin (pele) e input (entrada de dados), foi desenvolvida por Chris Harrison e Desney Tan Dan Morris, da Universidade Carnegie Mellon, nos Estados Unidos.

TECLADO VIRTUAL
O Skinput foi apresentado nesta segunda-feira (12/04) durante a conferência anual Fatores Humanos nos Sistemas de Computação, realizada em Atlanta.

A inspiração para o desenvolvimento dessa "interface natural", segundo os pesquisadores, veio do crescente aumento do poder computacional dos equipamentos portáteis.
Contudo, as dimensões dos smartphones, dos tocadores de MP3 e de outros equipamentos portáteis - dimensões que caminham no sentido oposto do seu poder de processamento - torna difícil sua utilização, limitando seu uso potencial pela dificuldade de acionar seus teclados ou suas telas sensíveis ao toque.

"Com o Skinput, nós podemos usar nossa própria pele - o maior órgão do corpo humano - como um dispositivo de entrada", disse Harrison. "É meio louco pensar que poderíamos criar interfaces em nossos corpos mas, no final das contas, isso faz muito sentido. Nossa pele está sempre conosco, tornando-se a superfície de toque interativa por excelência."

SENSOR ACÚSTICO E INTELIGÊNCIA ARTIFICIAL
No protótipo de teclado virtual apresentado na conferência, os sensores acústicos estão ligados ao antebraço. Esses sensores captam o som gerado por ações como bater levemente com os dedos ou simplesmente tocar no antebraço.

O som captado não é o que é transmitido através do ar, mas aquele que vem por ondas transversais através da pele, e por ondas longitudinais, ou de compressão, que viajam através dos ossos.

Harrison descobriu que o toque de cada dedo sobre diversas localizações ao longo braço produz uma assinatura acústica única, que pode ser identificada por um programa de aprendizagem de máquina.

O programa de inteligência artificial, que melhora seu desempenho à medida que é usado, é capaz de determinar a assinatura de cada toque analisando 186 diferentes características dos sinais acústicos, incluindo sua frequência e amplitude.

TECLADO NA PELE




Em um teste envolvendo 20 voluntários o teclado virtual projetado sobre a pele foi capaz de identificar as entradas com 88 por cento de exatidão.
A precisão depende da proximidade do toque com os sensores: toques no antebraço puderam ser identificadas com 96 por cento de exatidão quando os sensores estavam fixados abaixo do cotovelo.

"Não há nada de super sofisticado sobre o sensor em si", disse Harrison, "mas ele exige um certo processamento especial. É como um tipo de mouse - a mecânica do sensor em si não é revolucionária, mas ele está sendo usado de uma maneira revolucionária."

O sensor do Skinput é formado por uma matriz de sensores de vibração de alta precisão, feitos com películas piezoelétricas, montados de forma a poderem oscilar.

Além da braçadeira com os sensores e o programa de interpretação dos dados, o Skinput inclui um pequeno projetor para desenhar o teclado sobre a pele.

PROPRIOCEPÇÃO
Equipamentos simples, como tocadores de MP3, podem ser controlados simplesmente tocando a pele com a ponta dos dedos, sem a necessidade da projeção dos botões - ou seja, o teclado seria ainda mais virtual, sem nem mesmo a imagem projetada.

Na verdade, o Skinput pode tirar proveito da propriocepção - o sentido que uma pessoa tem da configuração do próprio corpo, permitindo a interação sem nem mesmo olhar para a pele - veja mais em Visão através da pele: esoterismo ou revolução na captura de imagens?

Embora o protótipo ainda seja grande e projetado para se encaixar no braço, a matriz de sensores pode ser facilmente miniaturizada, chegando ao tamanho de um relógio de pulso.
Restrições

Os testes indicaram que a precisão do Skinput é menor nas pessoas mais gordinhas, e a idade e o sexo também podem afetar a precisão. O uso da interface correndo ou andando também pode gerar ruído e degradar os sinais.

Mas, argumentam os pesquisadores, a quantidade de testes foi limitada, e a precisão provavelmente seria melhor se o programa de inteligência artificial tivesse oportunidade de colher mais informações em tais condições.


Fonte: Site Inovação Tecnológica- www.inovacaotecnologica.com.br URL: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=teclado-virtual-na-pele

A pauta é: Ciência, Tecnologia e Inovação

Prof.º Dr. Sofiane labidi
Jornal Pequeno – 04/04/2010

O Brasil é bem-sucedido no que diz respeito à geração de conhecimento tendo uma produção científica que corresponde a 2,5% da produção mundial. Apesar disso, o Brasil responde por apenas 0,1% das patentes depositadas no mundo. Patente, é um monopólio concedido pelo Estado (por meio do Instituto Nacional de Propriedade Industrial - INPI), durante um certo período de tempo (15 a 20 anos) em troca da proteção e da divulgação de uma invenção. A geração de patentes é um indicador fundamental que mede o quanto um País ou um Município é inovador e condiciona, portanto, seu grau de competitividade.

Como consequência desse mau desempenho na geração de Inovações e patentes, o Brasil ficou na 56ª posição no ranking mundial de competitividade, de acordo com o Relatório de Competitividade Global divulgado pela escola mundial de negócios (INSEAD) e o Fórum Econômico Mundial (WEF) em 2009. Tais estudos mostrarem também que o Brasil continua sendo o país menos competitivo entre os BRICs - bloco econômico dos países emergentes formado por Brasil, Rússia, Índia e China.

Isso é causado principalmente pela falta de incentivo à Pesquisa e à Inovação e pelo baixo investimento na formação e capacitação de Doutores no exterior. Esse último ponto constitua uma política equivocada que foi adotada pelo Governo Brasileiro desde 2005 e que está tendo um reflexo negativo sobre o Sistema. De fato, o Brasil embora tendo excelentes cursos de Mestrado, os programas de doutorado no País não atingirem ainda o nível de excelência exigido internacionalmente.

Somente em 2004 que políticas governamentais de incentivo à inovação foram iniciadas para corrigir essas distorções. O marco regulatório da inovação no Brasil é constituído pelos seguintes instrumentos: Lei da Inovação (Lei Nº 10.973/2004), Lei do Bem (Lei Nº 11.196/ 2005); Lei de Informática (Lei Nº 11.077/2004); Lei Rouanet da C&T (Lei Nº 11.487/2007); Lei Complementar (Lei Nº 123/2006); e o Estatuto Nacional da Microempresa e da Empresa de Pequeno Porte. Em 2009, um decreto presidencial instaurou o Dia Nacional da Inovação em 19 de outubro de cada ano. O Brasil traçou também, como meta para 2010, triplicar os investimentos em Pesquisa e Desenvolvimento - P&D para atingir 1,5% do Produto Interno Bruto - PIB que até então nunca ultrapassam os 0,4% do PIB.

Apesar de todos os esforços, a cultura da inovação continua muito tímida localmente, regionalmente e nacionalmente. A exemplo do Maranhão, o Nordeste Brasileiro apresenta apenas 5% dos pedidos de patentes depositados no INPI.
É preciso, portanto, entender a importância do papel da Inovação na agenda empresarial, difundir e absorver a cultura da Inovação no mundo acadêmico e na sociedade, e investir fortemente na pesquisa e inovação como forma de geração de riquezas.

É por isso que o Brasil está apostando no tema colocando em pauta a Ciência, Tecnologia e Inovação para serem discutidas na quarta Conferência Nacional de Ciência, Tecnologia e Inovação - CNCTI. A primeira Conferência ocorreu em 1985 quando foi criado o ministério da ciência e tecnologia tendo o maranhense Renato Archer (1922-1996) na pasta. A segunda em 1995, e a terceira em 2005. A 4ª CNCTI foi instituída por meio do Decreto Presidencial de 3 de agosto de 2009, com o título "Política de Estado para Ciência, Tecnologia e Inovação com vista ao Desenvolvimento Sustentável" e será realizada de 26 a 28 de maio de 2010 em Brasília. A conferência tem por objetivo de auxiliar na construção da Política de Estado em Ciência, Tecnologia e Inovação do Brasil para o período de 2011-2014. A conferência focará quatro eixos principais: Sistema Nacional de Ciência, Tecnologia e Inovação; Inovação na Sociedade e nas Empresas; Pesquisa, Desenvolvimento e Inovação em Áreas Estratégicas; e Ciência, Tecnologia; e Inovação para o Desenvolvimento Social.

Como preparatório a este megaevento, estão sendo realizadas em todo o País, conferências Estaduais e Regionais. No Maranhão, a Conferência Estadual aconteceu nesta semana (nos dias 30 e 31 de março), organizada pela Secretaria de Estado de Ciência e Tecnologia, com a participação das nossas universidades e de diversos segmentos da sociedade (FIEMA, SENAI, SEBRAE, Prefeituras, etc.), com o intuito de Promover a Ciência e a Tecnologia no Maranhão e no Brasil identificando gargalos, buscando soluções e sugerindo políticas e propostas de ações na área. O evento foi muito rico e o que mais me agradou e me deixou bastante satisfeita é a participação maciça, responsável e de qualidade dos nossos jovens e estudantes vindos de todas as regiões do Maranhão. Esta mobilização da sociedade é também o fruto de muito trabalho árduo e sério, realizado nos últimos anos, interiorizando a ciência e a levando para o dia a dia das pessoas.

Há hoje uma consciência muito grande com relação à importância do conhecimento e uma convicção do que a ciência e tecnologia não podem ser limitadas a uma elite, mas sim interessam a todos. Basta olhar ao nosso redor para perceber o quanto a ciência e a tecnologia são importantes para todos. De fato, o que será de nós sem o carro, sem a caneta, sem o avião, sem o computador, sem a máquina fotográfica, sem o celular, sem a televisão? O que será de nosso agricultor sem os agrotóxicos, sem as ferramentas de trabalho? A nossa educação precisa da tecnologia, a saúde precisa da pesquisa e da tecnologia, todos precisam da ciência e da tecnologia! A Ciência é um campo transversal que mexe com todas as áreas e não há progresso para nenhuma área, sem o auxílio da ciência e da tecnologia.

Temos apenas duas opções de caminho a trilhar: ou (1) continuaremos sendo meros usuários e copiadores de modelos produzidos por terceiros, ou (2) tenhamos a coragem e a determinação de enfrentar o desafio e de apostar na implantação de uma base científica e de inovação sólida, que se adéqua a nossa realidade e que nos leva à condição de produtor de tecnologia.

Isto não é uma utopia e os casos de sucesso são inúmeros no Brasil e no mundo. Por exemplo, o Porto Digital de Pernambuco está revolucionando a economia local. Os Polos de Software de pequenos municípios como Bulmenau e Santa Rita Rita de Sapucaí, estão gerando milhares de empregos e divisas para seus municípios. Mas, o exemplo mais interessante é o da Coréia, um país que, alguns anos atrás, era considerando o lixo da Ásia, é, hoje, um dois países que mais gera inovações e patentes no mundo. Isto por que, alguns anos atrás, tomou a decisão de investir prioritariamente e maciçamente ciência, tecnologia e novação.

Vamos, portanto levar a proposta do Maranhão para conferência regional em Maceió. Vamos levar a proposta do Maranhão para o Brasil. Vamos fazer com que esta consciência seja compartilhada e acompanhada cada vez mais por nossos Governos. Na era do conhecimento, a P&D com foco na Inovação, passou a ser um elemento estratégico e motor do crescimento econômico sustentável, aumentando a produtividade e a competitividade, e criando mercados e conseqüentemente trabalho e renda para as pessoas.

Prof. Dr. Sofiane labidi.
soflabidi@gmail.com
twitter.com/slabidi

quinta-feira, 8 de abril de 2010

Telecomunicações e sociedade da informação: uma estratégia para o futuro

Desde a Grécia antiga o homem tenta entender o significado da inteligência. Pesquisadores das ciências cognitivas, psicólogos, pedagogos, filósofos, sociólogos, neurologistas, etc. estudam este fenômeno com o intuito de simular o pensamento e o raciocínio humano. Mas, só em 1956, durante um congresso no New Hampshire, que nasceu a "Inteligência Artificial" como a ciência que busca conceber máquinas capazes de reproduzir tarefas humanas inteligentes.

Não há ainda consenso sobre a definição deste fenômeno. De fato, apreender e simular a inteligência é uma das tarefas mais desafiadoras que o homem está tentando resolver. Para alguns pesquisadores, a inteligência é determinada por fatores genéticos e que, uma vez adquirida, pouco ela pode ser modificada. Para outros, a inteligência se desenvolva dependendo intimamente do contexto sócio-ambiental. Sabemos que o que caracteriza o homem em relação aos demais seres vivos é sua inteligência e que esta inteligência tem quatro características importantes. De fato, o homem é intencional (norteado pelos seus objetivos), racional (sabe escolher o melhor caminho para atingir seus objetivos), cognitivo (suas decisões são baseadas no conhecimento e no raciocino) e adaptativo (tem capacidades de se adequar às mudanças). Assim, podemos afirmar que um agente é inteligente se ele é intencional, racional, cognitivo e adaptativo.

Contudo, durante muito tempo, a concepção da inteligência foi a de uma grandeza passível de medição. Isto leva a entender que a inteligência pode ser quantificada por meio de testes psicométricos preparados especialmente para esta finalidade. Em 1859, Francis Galton (primo de Charles Darwin) desenvolveu uma série de testes para medir a inteligência, baseando-se na teoria de que o processo evolutivo decorria de uma seleção natural. Em 1905, o pedagogo e psicólogo Alfred Binet desenvolveu, a pedido do Ministério da Educação da França, um teste de inteligência para auxiliar na resolução do problema do baixo rendimento escolar das crianças das séries primárias. Binet propõe uma escala métrica que permitia de medir o desenvolvimento da inteligência das crianças de acordo com as suas idades cronológica (idade real) e mental (idade correspondendo ao seu nível cognitivo). A medida de Binet ficou conhecida como "Quociente Intelectual". O teste quantifica e classifica a capacidade intelectual das crianças individualmente a fim de colocá-las nas classes adequadas às suas capacidades cognitivas. De fato, Binet observou que o problema do ensino primário estava basicamente ligado ao fato das classes serem heterogêneas, i.e., em uma única classe havia alunos bem dotados e outros pouco dotados intelectualmente. Portanto, tornava-se imprescindível selecionar as crianças pelo grau de inteligência, para formar classes homogêneas. Assim, Alfred Binet foi o inventor do primeiro teste de inteligência abrindo as portas aos atuais e famosos testes de QI (Quociente de Inteligência). Tais testes são baseados em questões de caráter lógico-matemático e lingüístico. O sucesso dos testes de QI se tornou ainda maior quando, na primeira Guerra Mundial, cerca de um milhão de soldados norte-americanos foram recrutados por meio desse teste.

Com a popularização dos testes de QI, propagou-se a idéia da inteligência ser única, estática e passível de medição. Porém, muitos casos reais mostrarem os limites dos testes de QI para avaliar a inteligência humana. Foi assim que, Países do mundo inteiro celebraram no último domingo (17/05) o Dia Internacional das Telecomunicações e da Sociedade da Informação. O dia foi instituído por uma resolução da Assembléia Geral da Organização das Nações Unidas (ONU), dando seqüência aos encontros da Cúpula Mundial sobre a Sociedade da Informação, ocorridos em Genebra (2003) e Túnis (2005). O objetivo da Cúpula foi criar uma sociedade da informação aberta a todos, inclusiva, centrada nas pessoas, baseada no conhecimento, e que fosse capaz de acelerar o desenvolvimento.

O principal significado do Dia Mundial da Sociedade da Informação é chamar a atenção de toda humanidade para as mudanças da sociedade proporcionada pela Internet e pelas novas tecnologias. Visa também sensibilizar sobre a necessidade da redução da exclusão digital no mundo, destacando a relação entre as enormes potencialidades das Tecnologias de Informação e Comunicação (TIC) e seu impacto para acelerar o ritmo do desenvolvimento da sociedade.

Curiosamente, no Maranhão, esta data passou despercebida. Um estado carente como o nosso, precisa mais do que nunca de empenho e investimento nesta área. É necessário firmar parcerias entre setores público, privado e terceiro setor para impulsionar e expandir a cultura numérica e a sociedade do saber. Só assim, podemos proporcionar a emergência de uma nova era e de uma nova sociedade onde o saber, a ciência e o progresso serão compartilhados de uma forma mais justa entre os indivíduos.

A ONU apelou a todos os países membros que organizem atividades adequadas para as celebrações acerca do tema de cada ano. Em 2008, o Dia Mundial da Sociedade da Informação foi celebrado sob o título "Abrir o caminho para o desenvolvimento sustentável". Este ano, o tema foi "Permitir aos deficientes beneficiarem das tecnologias de informação e comunicação". De fato, estima-se que existe no mundo cerca de 700 milhões de pessoas portadoras de necessidades especiais. Este número chega a dois bilhões considerando seus familiares, ou seja, um terço da população mundial é afetado, pois tem pelo menos um familiar portador de necessidades especiais.

Neste contexto, a Sociedade Mundial da Informação acredita que a utilização das TICs poderá ter um papel fundamental ao serviço destas pessoas ao permitir conectá-los, integrá-los à sociedade e melhorar sua qualidade de vida. A máxima do sucesso da Sociedade da Informação é o acesso universal. Todos devem ter a mesma oportunidade de participar na era digital e, portanto não podemos tirar de ninguém o direito de usufruir dos benefícios das TICs, muito menos dos portadores de deficiência. Felizmente, as novas tecnologias desenvolvidas habilitam as pessoas com todos os tipos de deficiência a terem uma função ativa na sociedade de informação. Nesse mesmo dia, foram premiadas pela ONU, uma entidade que promove normas e tecnologias auxiliando pessoas com deficiências visuais (consórcio DAISY), e uma entidade que desenvolve ferramentas que promovem o acesso à Internet junto a portadoras de necessidades especiais (consórcio Andrea Saks).

Desde a era do telégrafo, passando pelas comunicações na era espacial, até a nova era do ciberespaço em que hoje estamos, as Tecnologias da Informação e Comunicação sempre ajudaram a conectar a humanidade. Hoje, muitas pessoas seriam incapazes de imaginar a sua vida sem a utilização dessas tecnologias cada vez mais sofisticadas. No entanto, para os milhões de habitantes das regiões mais pobres, continua a existir a "fratura digital" que os exclui dos benefícios das TICs.

Assim, as TICs assumiram um papel importante na sociedade contemporânea, pois são instrumentos cruciais para alcançar o progresso sócio-econômico. As tecnologias, com custos cada vez mais acessíveis, nas mãos das comunidades locais, podem ser motores de mudanças eficazes, tanto no plano social como no plano econômico. O acesso à informação e ao conhecimento é essencial para vencer a fome, proteger o meio ambiente e alcançar nosso objetivo de desenvolvimento.

No entanto, para aproveitar essas potencialidades, é indispensável que os governos estabeleçam prioridades como o fortalecimento desta área e a busca em firmar parcerias com o setor privado e a sociedade civil. Caso contrário, continuaremos a ser meros copiadores de modelos e usuários de tecnologias que outros desenvolverão. Precisamos entender que as políticas assistenciais nunca deram certo, elas ajudam, mas não resolvem o problema.

Ciente de que o progresso de um estado e de um país é a decorrência da posição que ele acorda à ciência e ao saber, acreditamos e incitamos que o investimento no conhecimento deve ser nossa maior escolha para o futuro e que a pesquisa científica e a inovação são os únicos meios para passarmos à nova economia e relevarmos os desafios da revolução tecnológica.

DR. SOFIANE LABIDI.
labidi@uol.com.br
twitter.com/slabidi

Inteligências Múltiplas

Desde a Grécia antiga o homem tenta entender o significado da inteligência. Pesquisadores das ciências cognitivas, psicólogos, pedagogos, filósofos, sociólogos, neurologistas, etc. estudam este fenômeno com o intuito de simular o pensamento e o raciocínio humano. Mas, só em 1956, durante um congresso no New Hampshire, que nasceu a "Inteligência Artificial" como a ciência que busca conceber máquinas capazes de reproduzir tarefas humanas inteligentes.

Não há ainda consenso sobre a definição deste fenômeno. De fato, apreender e simular a inteligência é uma das tarefas mais desafiadoras que o homem está tentando resolver. Para alguns pesquisadores, a inteligência é determinada por fatores genéticos e que, uma vez adquirida, pouco ela pode ser modificada. Para outros, a inteligência se desenvolva dependendo intimamente do contexto sócio-ambiental. Sabemos que o que caracteriza o homem em relação aos demais seres vivos é sua inteligência e que esta inteligência tem quatro características importantes. De fato, o homem é intencional (norteado pelos seus objetivos), racional (sabe escolher o melhor caminho para atingir seus objetivos), cognitivo (suas decisões são baseadas no conhecimento e no raciocino) e adaptativo (tem capacidades de se adequar às mudanças). Assim, podemos afirmar que um agente é inteligente se ele é intencional, racional, cognitivo e adaptativo.

Contudo, durante muito tempo, a concepção da inteligência foi a de uma grandeza passível de medição. Isto leva a entender que a inteligência pode ser quantificada por meio de testes psicométricos preparados especialmente para esta finalidade. Em 1859, Francis Galton (primo de Charles Darwin) desenvolveu uma série de testes para medir a inteligência, baseando-se na teoria de que o processo evolutivo decorria de uma seleção natural. Em 1905, o pedagogo e psicólogo Alfred Binet desenvolveu, a pedido do Ministério da Educação da França, um teste de inteligência para auxiliar na resolução do problema do baixo rendimento escolar das crianças das séries primárias. Binet propõe uma escala métrica que permitia de medir o desenvolvimento da inteligência das crianças de acordo com as suas idades cronológica (idade real) e mental (idade correspondendo ao seu nível cognitivo). A medida de Binet ficou conhecida como "Quociente Intelectual". O teste quantifica e classifica a capacidade intelectual das crianças individualmente a fim de colocá-las nas classes adequadas às suas capacidades cognitivas. De fato, Binet observou que o problema do ensino primário estava basicamente ligado ao fato das classes serem heterogêneas, i.e., em uma única classe havia alunos bem dotados e outros pouco dotados intelectualmente. Portanto, tornava-se imprescindível selecionar as crianças pelo grau de inteligência, para formar classes homogêneas. Assim, Alfred Binet foi o inventor do primeiro teste de inteligência abrindo as portas aos atuais e famosos testes de QI (Quociente de Inteligência). Tais testes são baseados em questões de caráter lógico-matemático e lingüístico. O sucesso dos testes de QI se tornou ainda maior quando, na primeira Guerra Mundial, cerca de um milhão de soldados norte-americanos foram recrutados por meio desse teste.

Com a popularização dos testes de QI, propagou-se a idéia da inteligência ser única, estática e passível de medição. Porém, muitos casos reais mostrarem os limites dos testes de QI para avaliar a inteligência humana. Foi assim que, na véspera da copa do mundo de futebol de 1958, o psicólogo da seleção brasileira resolveu aplicar nos jogadores testes de QI. O atleta Garricha, embora com talento extraordinário, obteve um QI muito baixo, ficou classificado como débil mental e quase foi impedido de participar da Copa. Exemplos como esses são inúmeros, o que deixa claro que os testes de QI apenas avaliam o desempenho de um individuo sob a perspectiva lógico matemática e não de todas as suas habilidades.

Em 1983, o psicólogo Howard Gardner da universidade de Harvard, causou um forte impacto nos meios educacional e pedagógico com seu novo conceito de inteligência introduzido em seu livro "A teoria das inteligências múltiplas". Gardner defende uma abordagem abrangendo sistemas de símbolos mais amplos do que os lógicos e lingüísticos, envolvendo novos símbolos: pessoais, espaciais, musicais e corporais. Assim, a novidade dentro da teoria de Gardner é de considerar a inteligência como possuindo várias facetas. Tais facetas, consideradas como talentos, capacidades e habilidades mentais; são chamadas de inteligências nesta teoria que só chegou ao Brasil em 1994.

Para identificar essas inteligências, Gardner e sua equipe fizerem longos estudos sobre cognição e aprendizagem. Eles usarem diversas fontes de informações como: estudos sobre populações prodígios, idiotas sábios, crianças autistas, crianças com dificuldade de aprendizagem; dados sobre a evolução da cognição; estudos psicométricos; etc. Foram assim identificadas sete inteligências: lógico-matemática, lingüística, musical, corporal-cinestésica, espacial, intrapessoal e interpessoal.

A inteligência Lógico-matemática é a capacidade de realizar operações numéricas e de fazer deduções (raciocino lógico).

A Lingüística é a habilidade de aprender idiomas e de usar a fala e a escrita para atingir objetivos. Ela está geralmente relacionada às pessoas da área humana.

A Espacial é a disposição para reconhecer e manipular situações que envolvam apreensões visuais i.e. é a facilidade em se colocar e se deslocar no espaço; e está muito relacionada aos atletas, de forma geral.

A Corporal-cinestésica é o potencial para usar o corpo com o fim de resolver problemas ou fabricar produtos. Ela está relacionada à coordenação motora, aos sentidos e à expressão corporal.

A Interpessoal é a capacidade de entender as intenções e os desejos dos outros e conseqüentemente de se relacionar bem em sociedade.

A Intrapessoal ligada ao autoconhecimento e ao entendimento de si mesmo para alcançar certos fins, e

A Musical é a aptidão para tocar, apreciar e compor padrões musicais.

Mais tarde, Gardner identificou mais uma inteligência: a naturalista ou ecológica (reconhecer e classificar espécies da natureza, se integrar com a natureza) e sugeriu o agrupamento das inteligências interpessoal e intrapessoal em uma só chamada inteligência emocional (inteligências pessoais). Outros tipos de inteligência como a pictórica, a existencial e a espiritual estão sendo discutidas por vários pesquisadores, mas ainda não foram reconhecidas e incorporadas.

A primeira implicação da teoria das inteligências múltiplas é que existem habilidades e talentos diferenciados para atividades específicas. Vale ressaltar também que embora essas habilidades sejam independentes, raramente elas funcionam de forma isolada. Para Gardner, cada indivíduo nasce com um grande potencial de talentos. Esse potencial vai se moldando pela educação e pela cultura.

Refletindo sobre esta grande descoberta, podemos dizer que a teoria das inteligências múltiplas tem o mérito de favorecer uma visão completa do indivíduo e de alertar sobre a necessidade da valorização da multiplicidade e da diversidade na sala de aula. Porém, nosso sistema educacional e nossa sociedade em geral não levam em consideração tais princípios. O desenvolvimento de habilidades relacionadas à arte e ao esporte, por exemplo, só aparecem nas chamadas atividades extracurriculares, enquanto o sistema educacional chinês exige que cada aluno domine pelo menos três instrumentos musicais. Os concursos públicos no país focam geralmente a área jurídica é isso e é prejudicial para muita gente.

Assim, alternativas para novas práticas educacionais se apresentam como o desenvolvimento de avaliações adequadas às diversas habilidades humanas e a disponibilização de um ambiente educacional mais amplo e variado que não dependa apenas do desenvolvimento exclusivo da linguagem e da lógica. Contudo, a maneira mais difundida de aplicar a teoria das inteligências múltiplas é de, a exemplo do que faz parcialmente a pedagogia da alternância, tentar estimular todas as habilidades potenciais (as oito inteligências) dos alunos quando eles estão aprendendo um mesmo conteúdo.



PROF. DR. SOFIANE LABIDI
labidi@uol.com.br
twitter.com/slabidi

Gestão do Conhecimento

O valor de mercado de uma empresa é a soma de seus ativos tangíveis e intangíveis. Os ativos tangíveis são os bens materiais da empresa (máquinas, móveis, estoques, etc.) e os ativos intangíveis (imateriais) são aqueles que não possuem existência física (marcas, patentes, competências, estratégias, capacidades de inovação, etc.). Estima-se hoje que o valor econômico de uma empresa bem sucedida é constituído por aproximadamente 80% de ativos intangíveis e apenas 20% de ativos tangíveis. É exatamente o contrário do que erra quatro décadas atrás. Como exemplo, a empresa Natura, líder do mercado brasileiro de cosméticos e uma das três marcas mais valiosas do país com um valor de mercado de 3,5 bilhões de dólares (2006) tem 90% em ativos intangíveis e apenas 10% em ativos tangíveis.

Enquanto os ativos tangíveis estão se tornando commodities i.e. sem muito poder competitivo, os ativos intangíveis, fortemente baseados no conhecimento, tornarem-se mais relevantes na criação de valor agregado para sociedade e para economia. Portanto, na era do Saber, as organizações precisam considerar o conhecimento como elemento indispensável nas suas estratégias de negócio.

O conhecimento é classificado em dois tipos: tácito e explícito. O conhecimento tácito é aquele disponível na mente das pessoas, difícil de ser explicitado e formalizado (exemplos: "dirigir uma bicicleta", "reconhecer a voz de algum", etc.). Já o conhecimento explícito é facilmente estruturado, podendo ser armazenado em documentos, manuais, bancos de dados, etc. (exemplos: leis, axiomas, etc.). O conhecimento tácito representa cerca de 70% dos ativos intangíveis da empresa o que explica a complexidade da localização e identificação do saber da empresa.

A questão é: "como as organizações devem lidar com o conhecimento para gerar riqueza e atender aos requisitos de competitividade e mudança do mundo globalizado?". Isto é o propósito da Gestão do Conhecimento (GC). Na era do Saber, a Gestão do Conhecimento se transformou em um valioso recurso estratégico na vida das pessoas e das empresas. Ninguém hoje duvida na importância do conhecimento para sociedade, porém "saber muito" não implica necessariamente em um maior poder de competição. Isto porque o conhecimento deve ser aliado à sua gestão eficiente para gerar resultados.

Entretanto, nos últimos anos, as empresas investirem muito em tecnologia como sendo o diferencial de mercado. Atualmente, a tecnologia continua sendo um grande diferencial, porém não é o mais valioso. A tecnologia, com custos cada vez mais acessíveis, está aí disponível para qualquer organização que quer investir. Porém, devido ao mercado globalizado onde a concorrência é altamente competitiva, as empresas estão procurando cada vez mais gerir seus conhecimentos para inovar e abrir novas oportunidades de negócio.

O interesse das organizações no conhecimento se deve principalmente pelo conhecimento estar muito associado à ação. O conhecimento é avaliado pelas decisões e ações que ele desencadeia. Um melhor conhecimento pode levar a melhores decisões em marketing, vendas, produção, e distribuição.

O conhecimento é, portanto, o maior capital da empresa. Gerenciar este capital intelectual e tê-lo disseminado e compartilhado por todos da organização e principalmente tê-lo disponível no momento exato para dar suporte às tomadas de decisões dos executivos, é o grande desafio que as organizações estão enfrentando e que são depositadas nos processos da Gestão do Conhecimento com aplicação das novas tecnologias.

A Gestão do Conhecimento pode ser vista como uma coleção de processos que governa a criação, disseminação e utilização do conhecimento para atingir os objetivos da organização. Ela foca três aspectos principais: (1) ativos intangíveis (com ênfase no fator humano), (2) tornar a gestão do conhecimento algo explícito, e (3) incentivar e criar mecanismos que facilitem aos funcionários compartilharem seus conhecimentos.

Para transformar dados em informações precisamos de ferramentas computacionais comuns. Mas, para transformar informação em conhecimento precisamos de tempo e técnicas complexas geralmente de Inteligência Artificial. Conhecimento não é nem dado nem informação, mas está relacionado a ambos. Podemos pensar em informação como sendo dado que faz sentido, que faz diferença. Por exemplo, o número "6" seria apenas um dado, "6 pessoas" seria uma informação, e "se não houver fiscalização podemos por 6 pessoas em um carro" é um conhecimento. Todavia, o conhecimento é um conjunto formado por experiências, valores, informação de contexto, criatividade aplicada à avaliação de novas experiências.

Nas organizações, o conhecimento se encontra não apenas nos documentos, bases de dados e sistemas de informação, mas também nos processos de negócio, nas práticas dos grupos e na experiência acumulada pelas pessoas. Em inglês é chamado de "expertise".

Como exemplos de ferramentas e métodos que podem ser empregadas para auxiliar na Gestão do Conhecimento citamos as Intranets Corporativas, Sistemas de Workflow e de Groupware, Memórias Corporativas, Sistemas ERP (Enterprise Resource Planning), SIGE (Sistemas Integrados de Gestão Empresarial), Document Management System, SWOT, Balanced Scorecard, Benchmarking, Data Warehouse, Data Mining (Mineração de Dados), entre outros. Estima-se que o uso de Datawarehouse, por exemplo, gera um retorno de investimento para as empresas de cerca de 400 % em um período de um ano.

Assim, não devemos mais se limitar a definir a empresa como apenas uma unidade econômica de produção de bens e serviços. Esta deve principalmente ser vista como uma unidade de produção de conhecimento. De fato, a empresa além de suas habilidades de agir, se adaptar, e crescer tem um know-how detido por seus integrantes, que reflete toda sua competência para desenhar, construir, vender, e dar suporte aos seus produtos e serviços.

A Gestão do Conhecimento deve ser vista, portanto, como uma estratégia essencial para desenvolver a competitividade das empresas e do Estado e se tornar algo permanente. O desempenho da empresa depende cada vez mais de sua capacidade de tornar acessível para todos os conhecimentos tácitos e explícitos individuais. Isto passa por uma apreensão dos avanços tecnológicos e das teorias de criatividade e aprendizagem individual e organizacional. As empresas devem também pensar em seus colaboradores não mais como "recursos humanos" e sim como "capital humano".

Portanto, investimentos em Pesquisa, Desenvolvimento e Inovação são necessários tanto na academia como no setor produtivo e os avanços da tecnologia gerencial relacionada à Gestão do Conhecimento e das tecnologias de informação e de telecomunicações podem de fato aumentar a capacidade de gerar, difundir e armazenar conhecimento de valor para as empresas.

PROF. DR. SOFIANE LABIDI.
soflabidi@gmail.com
twitter.com/slabidi