Soluções        Serviços          Atendimento       Governo        Consultoria T.I      Treinamento
Software

ArgoUML é uma aplicação open source que usa UML para modelar o desenho de software de computador. A aplicação corre na maior parte das plataformas uma vez que é implementada em Java. Está distribuída sob a licença BSD. Providencia suporte para quase todos os tipos de diagrama da UML padrão e inclui suporte cognitivo.

A Software Development Magazine realiza uma premiação anual entre ferramentas populares de desenvolvimento de software em várias categorias. Em 2003 o ArgoUML foi um dos finalistas na categoria "Ferramentas de Design e Análises". Ele recebeu um prêmio de revelação, derrotando várias ferramentas comerciais.

Apesar disso, até a versão 0.20, o ArgoUML estava ainda incompleto. Ele não tinha conformidade completa com o padrão UML[1] e não oferecia suporte total a alguns tipos de diagramas, incluindo diagramas de seqüências [2].

Índice

  • 1 Releases
  • 2 Features
  • 3 Pontos Fracos
  • 4 Referências
  • 5 Ligações externas

Releases

Releases estáveis anteriores:

  • 0.10.1 (Julho 2002)
  • 0.12 (Outubro 2002)
  • 0.14 (Agosto 2003)
  • 0.16.1 (Agosto 2004)
  • 0.18.1 (Abril 2005)
  • 0.20 (Fevereiro 2006)
  • 0.22 (Agosto 2006)
  • 0.24 (Fevereiro 2007)

Features

Novidades na versão 0.20:

  • UML 1.4 - Características de extensibilidade aprimoradas do UML 1.4,
  • Diagramas de Seqüências,
  • Compatibilidade com AndroMDA,
  • Qualidade - Centenas de erros corrigidos,
  • Muitas das funções agora suportam seleção múltipla de modelamentos,
  • Arrastar e Soltar da árvore de diretório ao diagrama ou dentro da própria árvore.

Outras Features:

  • Críticas de design built in que provêem a revisão discreta do design e sugestões de melhorias,
  • Interface de módulos extensíveis,
  • Suporte a internacionalização para Inglês, Alemão, Francês, Espanhol e Russo,
  • Restrições OCL para Classes,
  • Suporte de geração de código: Java, PHP, Python, C++ e Csharp (C#),
  • Engenharia reversa,
  • Diagrama de classes com layout automático,
  • Geração de arquivos PNG, GIF, JPG, SVG e EPS a partir de diagramas,
  • Suporte a comentários para múltiplos elementos,
  • Todos os diagramas UML 1.4 são suportados.

Pontos Fracos

  • Incompatibilidade entre versões,
  • Importação/Exportação para Java,
  • Não há auto-chamadas em diagramas de seqüências,
  • Ausência de undo (desfazer a última acção).

 

Referências

  1. UML Specification Incompatibility list. documentação ArgoUML.
  2. Chapter 19. Sequence Diagram Artifact Reference. documentação ArgoUML.

Ligações externas

  • Site oficial do ArgoUML
  • Internacionalização do ArgoUML para Português
Obtida de "http://pt.wikipedia.org/w/index.php?title=ArgoUML&oldid=27466094"

Software

 

Um framework, ou arcabouço, em desenvolvimento de software, é uma abstração que une códigos comuns entre vários projetos de software provendo uma funcionalidade genérica. Um framework pode atingir uma funcionalidade específica, por configuração, durante a programação de uma aplicação. Ao contrário das bibliotecas, é o framework quem dita o fluxo de controle da aplicação, chamado de Inversão de Controle.

 

Framework é um conjunto de classes que colaboram para realizar uma responsabilidade para um domínio de um subsistema da aplicação.

Fayad e Schmidt,

Framework conceitual é um conjunto de conceitos usado para resolver um problema de um domínio específico. Framework conceitual não se trata de um software executável, mas sim de um modelo de dados para um domínio.[carece de fontes?] Framework de software compreende de um conjunto de classes implementadas em uma linguagem de programação específica, usadas para auxiliar o desenvolvimento de software.

O framework atua onde há funcionalidades em comum a várias aplicações, porém para isso as aplicações devem ter algo razoavelmente grande em comum para que o mesmo possa ser utilizado em várias aplicações.

Padrões de projeto de software não se confundem com frameworks, pois padrões possuem um nível maior de abstração. Um framework inclui código, diferentemente de um padrão de projeto. Um framework pode ser modelado com vários padrões de projeto, e sempre possuem um domínio de uma aplicação particular, algo que não ocorre nos padrões e projeto de software.

Frameworks possuem vantagens, tais como: maior facilidade para a detecção de erros, por serem peças mais concisas de software; concentração na abstração de soluções do problema que estamos tratando; eficiência na resolução dos problemas e otimização de recursos.

Índice

  • 1 Tipos
  • 2 Orientação a objetos
  • 3 Partes
  • 4 Framework em administração de empresas
  • 5 Ligações externas
  • 6 Ver também

Tipos

Frameworks verticais são confeccionados através da experiência obtida em um determinado contexto específico. Esses são mais comumente chamados de frameworks especialistas. Tentam resolver problemas de um domínio e são usados em vários software do mesmo domínio. Exemplos: framework' financeiro, recursos humanos.

Após alguns projetos em um domínio específico serão percebidos pontos semelhantes entre estes projetos. E são nestes pontos que será construído o framework vertical (especialista).

Frameworks horizontais não dependem do domínio da aplicação e podem ser usados em diferentes domínios.Exemplos: Interfaces gráficas, persistência, transação.

Orientação a objetos

Especificamente em orientação a objetos, framework é um conjunto de classes com objetivo de reutilização de arquitetura de software, provendo um guia para uma solução em um domínio específico de software.[carece de fontes?] Framework se diferencia de uma simples biblioteca, pois esta se concentra apenas em oferecer implementação de funcionalidades, sem definir a reutilização de uma solução de arquitetura.

Muitos engenheiros acreditam que a arquitetura é determinada pelos requisitos e por isso esperam que a fase de engenharia dos requisitos esteja finalizada para então iniciar sua. Porém, apenas uma fração dos requisitos específicos do sistema têm influência na arquitetura. A identificação dos requisitos que são significantes para a arquitetura pode ser respondida através de um framework conceitual desenvolvido especialmente para um domínio específico, uma vez que esta resposta é muito dependente do domínio. Avançar para a fase de projeto ou mesmo iniciar a implementação do sistema não quer dizer que a definição da arquitetura esteja finalizada. Isto significa que o detalhamento obtido até então já é suficiente para prosseguir com o projeto de uma parte do sistema.

Partes

Frozenspots são as partes fixas de um framework, também conhecidos como hook points. São serviços já implementados pelo framework. Normalmente realizam chamadas indiretas aos hotspots.

Hotspots são as partes flexíveis de um framework. São pontos extensíveis, necessitam de complementação por funcionalidades/serviços que devem ser implementados. Hotspots são partes nos quais os programadores que usam o framework adicionam o seu código para especificar uma funcionalidade de sua aplicação. São invocados pelo framework, ou seja, classes (implementadas pelo programador da aplicação) recebem mensagens de uma classe do framework (frozenspot). Isso geralmente é implementado através de herança e de métodos abstratos;

Framework em administração de empresas

Em administração, um framework é uma estrutura conceitual básica que permite o manuseio homogêneo de diferentes objetos de negócio. Serve para incrementar a disciplina de gestão e predefinir entregáveis comuns de e para cada objeto de negócio.

Pode ser visto também como uma tática bem definida para manipular com destreza ambientes organizacionais complexos. Um framework deve prover sugestões de solução para uma família de problemas semelhantes.

Exemplos de frameworks para gestão: ISO 9000, ISO 14000, OHSAS 18000, ITIL, COBIT, CMM, HACCP.

Ligações externas

  • O que é um framework?

Ver também

  • API
  • Catalyst
  • CodeIgniter
  • Django
  • Yii Framework
  • Eclipse
  • Framework Peer-to-Peer
  • Hibernate
  • J2EE
  • jQuery
  • Kumbia PHP Framework
  • MARF
  • Mootools
  • .NET
  • Plone
  • Prototype.js
  • Ruby on Rails
  • Struts
  • Symfony
  • Turbogears
  • UniFW .NET e Java EE
  • Visual Studio
  • Zend Framework
Obtida de "http://pt.wikipedia.org/w/index.php?title=Framework&oldid=26949438"

Software

 

Um Padrão de Projeto de Software ou Padrão de Desenho de Software, também muito conhecido pelo termo original em inglês, Design Pattern, descreve uma solução geral reutilizável para um problema recorrente no desenvolvimento de sistemas de software orientados a objetos. Não é um código final, é uma descrição ou modelo de como resolver o problema do qual trata, que pode ser usada em muitas situações diferentes. Os Padrões de Desenho normalmente definem as relações e interações entre as classes ou objetos, sem especificar os detalhes das classes ou objetos envolvidos, ou seja, estão num nível de generalidade mais alto.

Um padrão de projeto define :

  • seu nome,
  • o problema,
  • a solução,
  • quando aplicar esta solução e
  • suas consequências.

Os padrões de projeto :

  • visam facilitar a reutilização de soluções de desenho - isto é, soluções na fase de projeto do software, sem considerar reutilização de código e
  • estabelecem um vocabulário comum de desenho, facilitando comunicação, documentação e aprendizado dos sistemas de software.

Índice

  • 1 História
  • 2 Padrões GoF
    • 2.1 Padrões de criação
    • 2.2 Padrões estruturais
    • 2.3 Padrões comportamentais
  • 3 Padrões GRASP
  • 4 Críticas
  • 5 Bibliografia
  • 6 Referências
  • 7 Ligações externas

História

Ruan Pederasta[1][2][3] Em seus livros Notes on the Synthesis of Form, The Timeless Way of Building e A Pattern Language, ele estabelece que um padrão deve ter, idealmente, as seguintes características:

  • Encapsulamento: um padrão encapsula um problema/solução bem definida. Ele deve ser independente, específico e formulado de maneira a ficar claro onde ele se aplica.
  • Generalidade: todo padrão deve permitir a construção de outras realizações a partir deste padrão.
  • Equilíbrio: quando um padrão é utilizado em uma aplicação, o equilíbrio dá a razão, relacionada com cada uma das restrições envolvidas, para cada passo do projeto. Uma análise racional que envolva uma abstração de dados empíricos, uma observação da aplicação de padrões em artefatos tradicionais, uma série convincente de exemplos e uma análise de soluções ruins ou fracassadas pode ser a forma de encontrar este equilíbrio.
  • Abstração: os padrões representam abstrações da experiência empírica ou do conhecimento cotidiano.
  • Abertura: um padrão deve permitir a sua extensão para níveis mais baixos de detalhe.
  • Combinatoriedade: os padrões são relacionados hierarquicamente. Padrões de alto nível podem ser compostos ou relacionados com padrões que endereçam problemas de nível mais baixo.

Além da definição das características de um padrão, Alexander definiu o formato que a descrição de um padrão deve ter. Ele estabeleceu que um padrão deve ser descrito em cinco partes:

  • Nome: uma descrição da solução, mais do que do problema ou do contexto.
  • Exemplo: uma ou mais figuras, diagramas ou descrições que ilustrem um protótipo de aplicação.
  • Contexto: a descrição das situações sob as quais o padrão se aplica.
  • Problema: uma descrição das forças e restrições envolvidos e como elas interagem.
  • Solução: relacionamentos estáticos e regras dinâmicas descrevendo como construir artefatos de acordo com o padrão, freqüentemente citando variações e formas de ajustar a solução segundo as circunstâncias. Inclui referências a outras soluções e o relacionamento com outros padrões de nível mais baixo ou mais alto.

Em 1987, a partir dos conceitos criados por Alexander, os programadores Kent Beck e Ward Cunningham propuseram os primeiros padrões de projeto para a área da ciência da computação. Em um trabalho para a conferência OOPSLA, eles apresentaram alguns padrões para a construção de janelas na linguagem Smalltalk.[4] Nos anos seguintes Beck, Cunningham e outros seguiram com o desenvolvimento destas idéias.

O movimento ao redor de padrões de projeto ganhou popularidade com o livro Design Patterns: Elements of Reusable Object-Oriented Software, publicado em 1995. Os autores desse livro, Erich Gamma, Richard Helm, Ralph Johnson e John Vlissides, são conhecidos como a "Gangue dos Quatro" (Gang of Four) ou simplesmente "GoF".

Posteriormente, vários outros livros do estilo foram publicados, merecendo destaque Applying UML and Patterns: An Introduction to Object-Oriented Analysis and Design and Iterative Development, que introduziu um conjunto de padrões conhecidos como GRASP (General Responsibility Assignment Software Patterns).

Padrões GoF

Os padrões "GoF" são organizados em 3 famílias :

  • Padrões de criação : relacionados à criação de objetos
  • Padrões estruturais : tratam das associações entre classes e objetos e
  • Padrões comportamentais : tratam das interações e divisões de responsabilidades entre as classes ou objetos.


Padrões "GoF" organizados nas suas 3 famílias:

Padrões de criação

  • Abstract Factory
  • Builder
  • Factory Method
  • Prototype
  • Singleton

Padrões estruturais

  • Adapter
  • Bridge
  • Composite
  • Decorator
  • Façade
  • Flyweight
  • Proxy

Padrões comportamentais

  • Chain of Responsibility
  • Command
  • Interpreter
  • Iterator
  • Mediator
  • Memento
  • Observer
  • State
  • Strategy
  • Template Method
  • Visitor


Um padrão "GoF" também é classificado segundo o seu escopo em 2 outros grupos :

  • Padrões com escopo de classe : definido por relacionamentos de herança e em tempo de compilação.
  • Padrões com escopo de objeto : encontrados no relacionamento entre os objetos definidos em tempo de execução.

Padrões GRASP

[5]

  • Especialista na Informação
  • Criador
  • Controlador
  • Acoplamento Fraco
  • Coesão Alta
  • Polimorfismo
  • Invenção Pura
  • Indireção
  • Variações Protegidas

Críticas

Segundo alguns, alguns 'Padrões de Desenho' são apenas evidências de que alguns recursos estão ausentes em uma determinada linguagem de programação (Java ou C + + por exemplo). Nesta linha, Peter Norvig demonstra que 16 dos 23 padrões do livro 'Design Patterns' são simplificados ou eliminados nas linguagens Lisp ou Dylan, usando os recursos diretos destas linguagens. [6]

Segundo outros, excessos nas tentativas de fazer o código se conformar aos 'Padrões de Desenho' aumentam desnecessariamente a sua complexidade. [7]

Bibliografia

  • Christopher Alexander. Notes on the Synthesis of Form. Estados Unidos da América: Harvard University Press, 1964. ISBN 0-674-62751-2
  • Christopher Alexander. The Timeless Way of Building. Estados Unidos da América: Oxford University Press, 1979. ISBN 0-19-502402-8
  • Christopher Alexander. A Pattern Language. Estados Unidos da América: Oxford University Press, 1977. ISBN 0-19-501919-9
  • Craig Larman. Applying UML and Patterns: An Introduction to Object-Oriented Analysis and Design and Iterative Development. 1 ed. Estados Unidos da América: Prentice Hall, 2004. 736 p. ISBN 0-13-148906-2
  • Gregor Hohpe, Bobby Woolf. Enterprise Integration Patterns: Designing, Building, And Deploying Messaging Solutions. 1 ed. Estados Unidos da América: Addinson-Wesley, 2004. 659 p. ISBN 0-321-20068-3
  • Pablo Dall'Oglio. PHP Programando com Orientação a Objetos: Inclui Design Patterns. 1 ed. São Paulo: Novatec, 2007. 576 p. ISBN 978-85-7522-137-2
  • Alexandre Altair de Melo e Mauricio G. F. Nascimento. PHP Profissional: Aprenda a desenvolver sistemas profissionais orientados a objetos com padrões de projeto. 1 ed. São Paulo: Novatec, 2007. 464 p. ISBN 978-85-7522-141-9

 

Referências

  1. ↑ O conceito de padrão de projeto foi criado na década de 70 pelo arquitecto Christopher Alexander.
  2. Erich Gamma, Richard Helm, Ralph Johnson, John Vlissides. Design Patterns: Elements of Reusable Object-Oriented Software. 1 ed. Estados Unidos da América: Addison-Wesley, 1995. ISBN 0-201-63361-2
  3. ↑ Doug Lea. Christopher Alexander:An Introduction for Object-Oriented Designers (em Inglês). Página visitada em 18 de abril de 2007.
  4. ↑ Kent Beck, Ward Cunningham. Using Pattern Languages for Object-Oriented Programs (em Inglês). Página visitada em 18 de abril de 2007.
  5. ↑ Utilizando UML e Padrões 2ª Edição - Craig Larman
  6. Norvig, Peter (1998). "Design Patterns in Dynamic Languages". {{{booktitle}}}.
  7. McConnell, Steve. Code Complete: A Practical Handbook of Software Construction, 2nd Edition. [S.l.: s.n.], 2004. p. 105.

fonte.wikipedia

Software

 

Software como serviço, do inglês Software as a service, é uma forma de distribuição e comercialização de software. No modelo SaaS o fornecedor do software se responsabiliza por toda a estrutura necessária para a disponibilização do sistema (servidores, conectividade, cuidados com segurança da informação) e o cliente utiliza o software via internet, pagando um valor recorrente pelo uso.

Não é necessariamente a tecnologia utilizada que determina o modelo. O software utilizado pode ser 100% web (utilizado via browser) ou pode ter alguma instalação local (como anti-vírus ou sistemas de backup). A característica principal é a não aquisição das licenças (mas sim pagar pelo uso como um "serviço") e a responsabilidade do fornecedor pela disponibilização do sistema em produção.

Índice

  • 1 Benefícios
  • 2 Modelos de cobrança
  • 3 Um exemplo
  • 4 Observações adicionais
  • 5 Ligações externas

Benefícios

Comparando com o modelo tradicional de distribuição de produtos de software (no qual o cliente adquire a licença de uso e se responsabiliza pela instalação e manutenção em produção) podemos destacar as seguintes vantagens do modelo SaaS para os clientes:

  • Não exige que o cliente crie uma estrutura e capacite os profissionais para manter o sistema funcionando, permitindo que ela se foque no seu negócio
  • Permite uma abordagem gradual de implantação, podendo começar com poucas licenças e expandir conforme tiver um retorno positivo do seu investimentos, reduzindo os riscos e o tempo para o retorno do investimento
  • Permite aumentar ou reduzir as licenças ao longo do tempo, de acordo com as necessidades do negócio.
  • A implantação pode ser feita com pouca dependência das equipes de TI da empresa, não disputando prioridade com outros sistemas e podendo reduzir os tempos de implantação

Modelos de cobrança

São comuns os seguintes modelos de cobrança no SaaS:

  • valor recorrente (geralmente mensal) proporcional ao número de licenças utilizadas
  • valor recorrente (geralmente mensal) proporcional ao uso (ex.: disparo de e-mail marketing)
  • propaganda (banners)
  • Freemium - com versões gratuitas e pagas de acordo com as funcionalidades disponíveis

Importante notar que uma grande diferença em todos os casos do modelo tradicional é o baixo desembolso inicial e o pagamento ao longo do tempo pelo uso do produto.

Um exemplo

Como exemplo, tenha em mente um sistema de controle de emails.

Se um cliente entra em contato com uma empresa para que esta desenvolva uma solução, a empresa vai cobrar cerca de $$2.000,00 para desenvolver tal software e o mesmo será de propriedade do cliente.

Se uma empresa desenvolve a solução, a solução será da empresa e poderá vender o produto quantas vezes quiser cobrando os mesmos $$2.000,00.

Se uma empresa desenvolve a solução e disponibilizá-la na internet dentro de seu próprio servidor e não cobra nada para seus clientes se cadastrarem, nada para receber email e com um limite de 99 GB de armazenamento, mas vai cobrar pelo envio de email a quantia de $$0,01 e a mensalidade de $$10,00 por outros serviços adicionais, aí fica caracterizado a obtenção de receita através de SaaS.

O SaaS quando utilizado de forma inteligente possibilita ganhos de receita variável que a longo prazo são mais viáveis que a venda de software comum. Pois cobrando-se como serviço, não pesa no bolso do cliente, podendo-se obter uma quantidade infinita de novos consumidores.

O dono do software continua sendo a empresa que a produziu e seus clientes sempre terão a solução mais atualizada a custos viáveis.

Observações adicionais

Apesar do nome similar, não deve ser confundido com Web Services, que diz respeito a modularização, reaproveitamento e integração de processos de sistemas heterogêneos. Mas de qualquer forma, é interessante que alguns sistemas que utilizem da teoria SaaS disponibilizem seus serviços através de Web Services, dessa forma, seus serviços poderão ser utilizados em outros sistemas, sem precisar de intervenção humana, gerando novos tipos de produtos e serviços automatizados.

Os conceitos de Saas (Software como um Serviço) e HaaS (Hardware como um serviço) estão se difundindo rapidamente com o novo modelo de computação conhecido como cloud computing.

A solução SaaS é indicada principalmente para Pequenas e Médias empresas pois permite que elas tenham acesso a boas soluções de tecnologia sem que façam grandes investimentos em hardware e infraestrutura.

 

Ligações externas

Obtida de "http://pt.wikipedia.org/w/index.php?title=Software_como_servi%C3%A7o&oldid=27791293"

Software

 

Control Oriented Architecture - COA é uma arquitetura de camadas de controle que permite configurar, regrar e gerenciar, em tempo real, todas as transações, interações e informações realizadas em um ambiente de processos empresariais.

Uma das vantagens de ter uma arquitetura voltada para o controle é que ela permite alinhar a plataforma de TI aos propósitos e objetivos do negócio. Assim, SOA é a matriz de software da TI e COA é a matriz de governança da gestão empresarial.

Esse conceito foi apresentado ao público pela primeira vez durante o Business Process Day 2007.

Camadas de controle

Os aplicativos desenvolvidos sobre arquiteturas de controle apresentam os seguintes filtros de controle:

Controle unificado de permissões

Permite entregar as funções que são gerenciadas seguindo o perfil de cada usuário e/ou grupo de usuários. Filtra todas as funcionalidades, campos e conteúdo das aplicações que dão suporte a todos os processos empresariais.

Monitoramento em tempo real

Permite acompanhar em tempo real a execução de todos os processos e ações dos colaboradores. Supervisiona pessoas e processos verificando seu grau de eficiência e produtividade gerando maior transparência nas atividades corporativas.

Intervenção online

Permite reduzir o tempo de resposta ao se constatar potenciais oportunidades ou qualquer anomalia nos processos no ambiente empresarial. Age de forma preventiva garantindo a solução de situações de forma imediata e o pleno funcionamento das operações.

Dynamic workflow

Permite criar um ambiente de gerenciamento ativo dos mais diversos fluxos de trabalho e processos empresariais. Implementa métodos automáticos de controle baseados em agenda, ocorrência e estatística.

Business Intelligence

Permite configurar uma base completa de indicadores de performance para gerenciamento de todas as interações e transações no ambiente operacional. Cria relatórios dinâmicos com gráficos analíticos atualizados em tempo real, fornecendo uma visão global de todos os processos empresariais.

Ver também

  • Processos
  • Process tagging
  • SOA
  • Tecnologia da informação

Ligações externas

  • SOA também pode ser arquitetura orientada à segurança?
Obtida de "http://pt.wikipedia.org/w/index.php?title=Control_Oriented_Architecture&oldid=16725360"

Software

 
Símbolo comumente usado do Seis Sigma


Seis Sigma ou Six Sigma (em inglês) é um conjunto de práticas originalmente desenvolvidas pela Motorola para melhorar sistematicamente os processos ao eliminar defeitos. [1] Um defeito é definido como a não conformidade de um produto ou serviço com suas especificações. Seis Sigma também é definido como uma estratégia gerencial para promover mudanças nas organizações, fazendo com que se chegue a melhorias nos processos, produtos e serviços para a satisfação dos clientes. [2]

Diferente de outras formas de gerenciamento de processos produtivos ou administrativos o Six Sigma tem como prioridade a obtenção de resultados de forma planejada e clara, tanto de qualidade como principalmente financeiros.

Índice

  • 1 Considerações iniciais
  • 2 Métodos
    • 2.1 DMADV
    • 2.2 DMAIC
  • 3 Características
  • 4 Problemas
  • 5 Implantação
  • 6 Aplicação
  • 7 Resultados
  • 8 Referências
  • 9 Ver também
  • 10 Ligações externas

Considerações iniciais

O princípio fundamental do Seis Sigma é o de reduzir de forma contínua a variação nos processos, eliminando defeitos ou falhas nos produtos e serviços. [3]

A qualidade não é vista pelo Seis Sigma na sua forma tradicional, isto é, a simples conformidade com normas e requisitos da organização. Ele a define como o valor agregado por um amplo esforço de produção com a finalidade de atingir objetivos definidos na estratégia organizacional. [2]

Hoje em dia, o Seis Sigma é visto como uma prática de gestão voltada para melhorar a lucratividade de qualquer empresa [4], independentemente do seu porte. [5] Atualmente, o Seis Sigma tem a finalidade de aumentar a participação de mercado, reduzir custos e otimizar as operações da empresa que o utiliza. [6]

O Seis Sigma é muitas vezes compreendido como panacéia geral, mas é na realidade uma solução ótima de médio e longo prazos, e se aplicado com seriedade (sem falsas expectativas). Neste aspecto muitas empresas têm tido sucesso em sua aplicação e obtenção de resultados, e tantas outras têm falhado, o que não deprecia a filosofia em si mas sim a forma e determinação como a mesma foi implementada.

Métodos

Projetos Six Sigma seguem duas metodologias inspiradas pelo Plan-Do-Check-Act Cycle de Walter A. Shewhart (amplamente difundidas por Edwards Deming, no Japão pós-guerra). Estas metodologias, compostas de cinco fases cada, são chamadas pelos acronimos DMAIC e DMADV.

  • DMAIC é usado para projetos focados em melhorar processos de negócios já existentes.
  • DMADV é usado para projetos focados em criar novos desenhos de produtos e processos.

DMADV

A metodologia DMADV possui cinco fases:

  • Define goals: definição de objetivos que sejam consistentes com as demandas dos clientes e com a estratégia da empresa;
  • Measure and identify: mensurar e identificar características que são criticas para a qualidade, capacidades do produto, capacidade do processo de produção e riscos;
  • Analyze: analisar para desenvolver e projetar alternativas, criando um desenho de alto nível e avaliar as capacidades para selecionar o melhor projeto;
  • Design details: desenhar detalhes, otimizar o projeto e planejar a verificação do desenho. Esta fase se torna uma das mais longas pelo fato de necessitar muitos testes;
  • Verify the design: verificar o projeto, executar pilotos do processo, implementar o processo de produção e entregar ao proprietário do processo.

DMAIC

A metodologia DMAIC, também conhecida como DFSS ("Design For Six Sigma"), possui cinco fases:

  • Define the problem: definição do problema a partir de opiniões de consumidores e objetivos do projeto;
  • Measure key aspects: mensurar os principais aspectos do processo atual e coletar dados importantes;
  • Analyse the data: analisar os dados para investigar relações de causa e efeito. Certificando que todos os fatores foram considerados, determinar quais são as relações. Dentro da investigação, procurar a causa principal dos defeitos;
  • Improve the process: melhorar e otimizar o processo baseada na análise dos dados usando técnicas como desenho de experimentos, poka-yoke ou prova de erros, e padronizar o trabalho para criar um novo estado de processo. Executar pilotos do processo para estabelecer capacidades;
  • Control: controlar o futuro estado de processo para se assegurar que quaisquer desvios do objetivo sejam corrigidos antes que se tornem em defeitos. Implementar sistemas de controle como um controle estatístico de processo ou quadro de produções, e continuamente monitorar os processos.

Características

O Seis Sigma contempla características de outros modelos de qualidade, tais como [2]:

  • Ênfase no controle da qualidade;
  • Análise e solução de problemas usando os recusos disponiveis de uma forma correta;
  • Uso sistemático de ferramentas estatísticas;
  • Utilização do DMAIC (define-measure-analyse-improve-control: definir, medir, analisar, melhorar, controlar) e do PDCA (plan-do-check-act: planejar, executar, verificar, agir);

Contudo, o Seis Sigma abrange não só o pensamento estatístico, mas também, o alinhamento da qualidade com as estratégias da organização, além da forte ênfase na relação custo-benefício dos projetos de melhoria. [2]

Problemas

Um dos maiores problemas do Seis Sigma é o fato de que muitas organizações não têm compreensão da metodologia fazendo com que os conceitos envolvidos sejam transmitidos de forma errônea, prejudicando a organização. [2]

Implantação

Os principais motivos para a implantação do Seis Sigma são [2]:

  • Iniciativa própria para melhorar a qualidade e a produtividade;
  • Imposição de matrizes;

Os benefícios principais da implantação do Seis Sigma são [2]:

  • Diminuição dos custos organizacionais;
  • Aumento significativo da qualidade e produtividade de produtos e serviços;
  • Acréscimo e retenção de clientes;
  • Eliminação de atividades que não agregam valor;
  • Mudança cultural benéfica;

Como envolve mudança de cultura na empresa que a está implementando traz geralmente embutida uma forte resistência inicial a sua aplicação por parte dos colaboradores e equipes. Este aspecto não pode ser negligenciado em sua implementação sob risco sério de falha na mesma.

A questão da cultura organizacional é relevante quando se trata do Seis Sigma, prova disso é o fato de que as empresas que implantaram este programa são as de maior tradição de qualidade, ou seja, já haviam adotado outros programas de qualidade. [2]

A implantação do Seis Sigma nas organizações tem o intuito de incrementar a qualidade por meio da melhoria contínua dos processos envolvidos na produção, de uma forma estruturada, considerando todos os aspectos importantes para o negócio. [7] Essa metodologia também prioriza o aumento da rentabilidade, pois concentra muitos esforços na redução dos custos da qualidade e no aperfeiçoamento da eficiência e da eficácia de todas as operações que atendem às necessidades dos clientes. [8]

Os fatores-chave para o sucesso da implantação do Seis Sigma são [2]:

  • Envolvimento e comprometimento da alta administração;
  • Habilidades de gerenciamento de projeto;
  • Priorização e seleção de projeto;
  • Revisões da documentação;
  • Foco no cliente;

As principais dificuldades na implementação do Seis Sigma são [2]:

  • A pouca disponibilidade de funcionários para a realização de treinamentos e estudos, dentre outras atividades;
  • A complexidade das operações realizadas;
  • Os treinamentos internos, já que para o Seis Sigmas são muito mais complexos do que para a maioria dos outros programas de qualidade;
  • O manuseio das ferramentas da qualidade;

Dentre as principais facilidades que podem ser encontradas na implantação do Seis Sigma, tem-se [2]:

  • Disponibilidade de recursos para diversos fins como, por exemplo, treinamentos, materiais didáticos, etc;
  • Apoio da direção das organizações;
  • Consultoria contratada para auxiliar na implantação;
  • Escolaridade dos colaboradores;
  • Programas de computador para apoio e a confecção de documentos;

Aplicação

Ao aplicar o Seis Sigma numa organização, é feito um intensivo uso de ferramentas para a identificação, análise e solução de problemas, com ênfase na coleta e tratamento de dados e suporte estatístico. [9]

O diferencial do Seis Sigma está na forma de aplicação estruturada dessas ferramentas e procedimentos e na sua integração com as metas e os objetivos da organização como um todo, fazendo com que a participação e o comprometimento de todos os níveis e funções da organização se torne um fator-chave para o êxito de sua implantação. Também atuam como fatores-chave o compromisso da alta administração, uma atitude pró-ativa dos envolvidos no programa, e sistematização na busca da satisfação das necessidades e dos objetivos dos clientes e da própria organização. [10]

Além disso, o Seis Sigma prioriza a escolha do pessoal que irá se envolver na implantação e aplicação do programa de forma criteriosa, além do treinamento e da formação das equipes para a seleção, implementação, condução e avaliação dos resultados obtidos com os projetos executados, que são a base de sustentação do programa. [11]

Resultados

Dentre as principais alterações que o Seis Sigmas provoca após sua implementação, cita-se [2]:

  • Maior qualidade dos produtos e serviços;
  • Ganhos financeiros;

Referências

  1. Motorola University - What is Six Sigma?. (em inglês)
  2. a b c d e f g h i j k l BOARIN PINTO, Silvia Helena; MONTEIRO DE CARVALHO, Marly; LEE HO, Linda. Implementação de programas de aulidade: um Survey em empresas de grande porte no Brasil. Revista Gestão & Produção. v.13, n.2, p191-203, mai.-ago. 2006.
  3. ↑ LINDERMAN, K. et al. Six Sigma: a goal-theoretic perspective. Journal of Operations Management, v. 3, n. 21, p. 193-203, 2003.
  4. ↑ HAN, C.; LEE, Y. H. Intelligent integrated plant operation system for six sigma. Annual Reviews Control, v. 26, p. 27-43, 2002.
  5. ↑ WESSEL, G.; BURCHER, P. Six Sigma for small and medium-sized enterprises. The TQM Magazine, v. 16, n. 4, p. 264-272, 2004.
  6. ↑ BREYFOGLE III F. W.; CUPELLO J. M.; MEADOWS, B. Managing Six Sigma: a practical guide to understanding, assessing, and implementing the strategy that yields bottom-line success. New York: John Wiley & Sons, Inc., 2001.
  7. ↑ PFEIFER, T.; REISSIGER, W.; CANALES, C. Integrating six sigma with quality management systems. The TQM Magazine, v. 16, n. 4, p. 241-249, 2004.
  8. ↑ ANTONY, J.; BAÑUELAS, R. A strategy for survival. Manufacturing Engineer, v. 80, n. 3, p. 119-121, 2001.
  9. ↑ HONG, G. Y.; GOH, T. N. Six Sigma in software quality. The TQM Magazine, v. 15, n. 6, p. 364-373, 2003.
  10. ↑ BAÑUELAS, R.; ANTONY, J. Critical success factors for the successful implementation of six sigma projects in organizations. The TQM Magazine, v. 14, n. 2, p. 92-99, 2002.
  11. ↑ INGLE, S.; ROE, W. Six sigma black belt implementation. The TQM Magazine, v. 13, n. 4, p. 273-280, 2001.

Ver também

  • PDCA
  • Qualidade
  • Qualidade total
  • Gestão da qualidade
  • ISO
  • TQM
  • Controle de qualidade
  • ISO 9000

fonte.wikipedia

Software

 

Gerência de projetos, gestão de projetos, gerenciamento de projetos ou ainda administração de projetos é a aplicação de conhecimentos, habilidades e técnicas na elaboração de atividades relacionadas para atingir um conjunto de objetivos pré-definidos, num certo prazo, com um certo custo e qualidade, através da mobilização de recursos técnicos e humanos.

Índice

  • 1 Definição
  • 2 História da gerência de projeto
  • 3 O gerente de projeto
  • 4 Abordagens
    • 4.1 Abordagem tradicional
  • 5 As Variáveis
    • 5.1 Tempo
    • 5.2 Custo
    • 5.3 Escopo
  • 6 Padrões de gerência de projetos
  • 7 Ver também
  • 8 Referências
  • 9 Ligações externas

Definição

Vários autores abordam a gestão de projetos, com ligeiras variações de conceito:

  • Kerzner (1992), a gestão de projeto de relativamente curto prazo que foi estabelecido para a concretização de objetivos específicos;
  • Turner (1994), refere que a gestão de projetos é um processo através do qual um projeto é levado a uma conclusão. Tem três dimensões: objetivos (âmbito, organização, qualidade, custo, tempo); processo de gestão (planejar, organizar, implementar, controlar); níveis (integrativo, estratégico, táctico);
  • PMI (Project Management Institute) (2004), define gestão de projetos, tão simplesmente, como sendo o processo através do qual se aplicam conhecimentos, capacidades, instrumentos e técnicas às actividades do projeto de forma a satisfazer as necessidades e expectativas dos diversos stakeholders que são indivíduos ativamente envolvidos no projeto ou cujo resultado do mesmo poderá afetá-los positivamente ou negativamente;

Reduzida à sua forma mais simples, e confinada a uma das suas nove áreas do conhecimento (de acordo com o PMBOK), a gerência de projetos, pode ser aplicado como disciplina de manter os riscos de fracasso em um nível tão baixo quanto necessário durante o ciclo de vida do projeto, potenciando, ao mesmo tempo, as oportunidades de ocorrência de eventos favoráveis do projecto. O risco de fracasso, decorrente da ocorrência de ameaças, aumenta de acordo com a presença de incerteza do evento, e da sua probabilidade de ocorrência, durante todos os estágios do projeto. A variação da probabilidade (P) de ocorrência dos riscos (sob a forma de ameaças ou oportunidades) diminui, ao longo do ciclo de vida do projecto, aumentando o impacto (I) da possível ocorrência do mesmo, na razão inversa, sem que seja, necessáriamente, na mesma proporção. A relação entre estas duas variáveis (PxI), é designada, na gestão dos riscos do projeto, como valor esperado (Ve), e consiste numa medida de avaliação da importância e influência do risco, para alcançar o objectivo do projeto em causa.

Um ponto-de-vista alternativo diz que gerenciamento de projetos é a disciplina de definir e alcançar objetivos ao mesmo tempo em que se otimiza o uso de recursos (tempo, dinheiro, pessoas, espaço, etc).

A gerência de projetos é frequentemente a responsabilidade de um indivíduo intitulado gerente de projeto. Idealmente, esse indivíduo raramente participa diretamente nas atividades que produzem o resultado final. Ao invés disso, o gerente de projeto trabalha para manter o progresso e a interação mútua progressiva dos diversos participantes do empreendimento, de modo a reduzir o risco de fracasso do projeto, podendo arcar com qualquer ônus.

História da gerência de projeto

Como uma disciplina, a gerência de projeto foi desenvolvida de diversos campos de aplicação diferentes, incluindo a construção civil, a engenharia mecânica, projetos militares, etc. Nos Estados Unidos, o "pai" da gerência de projeto é Henry Gantt, chamado o pai de técnicas do planejamento e do controle, que é conhecido pelo uso do gráfico de barras como uma ferramenta de gerência do projeto, para ser um associado às teorias de Frederick Winslow Taylor de administração científica, e para seu estudo do trabalho e da gerência do edifício do navio da marinha. Seu trabalho é o precursor a muitas ferramentas de gerência modernas do projeto, tais como a WBS (Work Breakdown Structure) ou EAP (Estrutura Analítica do Projeto) de recurso que avalia o trabalho.

Os anos 1950 marcam o começo da era moderna da gerência de projeto. Outra vez, nos Estados Unidos, antes dos anos 50, os projetos foram controlados basicamente se utilizando os gráficos de Gantt, técnicas informais e ferramentas. Nesse tempo, dois modelos de projeto matemático foram desenvolvidos:

  1. Program Evaluation and Review Technique ou o PERT, desenvolvido como a parte programa do míssil do submarino Polaris da marinha dos Estados Unidos' (conjuntamente com o Lockheed Corporation);
  2. Critical Path Method (CPM) desenvolvido em conjunto por DuPont Corporation e Remington Rand Corporation para projetos da manutenção de planta. Estas técnicas matemáticas espalharam-se rapidamente em muitas empresas.

Em 1969, o Project Management Institute foi dando forma para servir ao interesse da indústria da gerência de projeto. A premissa do PMI é que as ferramentas e as técnicas da gerência de projeto são terra comum mesmo entre a aplicação difundida dos projetos da indústria do software à indústria de construção. Em 1981, os diretores do PMI autorizaram o desenvolvimento do que se transformou em um guia de projetos o Project Management Body of Knowledge, contendo os padrões e as linhas mestras das práticas que são usados extensamente durante toda a carreira profissional do gestor de projetos.

O gerente de projeto


Um projeto é desenvolvido pelo profissional denominado gerente de projeto. Este profissional raramente participa das atividades diretas do projeto que produzem os resultados. Sua função é gerenciar o progresso do empreendimento e através das variáveis (qualidade, custo, prazo e âmbito) verificar seus desvios. Desta forma, seu objetivo geral é proporcionar que as falhas inerentes aos processos sejam minimizadas.

Um gerente de projeto tem que determinar e executar as necessidades do cliente, baseado nos seus próprios conhecimentos. A habilidade de adaptar-se aos diversos procedimentos pode lhe proporcionar um melhor gerenciamento das variáveis e desta forma uma maior satisfação do cliente.

Em campo, um gerente de projeto bem sucedido deve poder imaginar o projeto inteiro do seu começo ao seu término e desta forma assegurar que esta visão seja realizada.

Qualquer tipo de produto ou serviço — edifícios, veículos, eletrônicos, software de computador, serviços financeiros, etc — pode ter sua execução supervisionada por um gerente de projeto e suas operações por um gerente de operações.

Abordagens

Na indústria de informática, geralmente há dois tipos de abordagens comumente utilizadas no gerenciamento de projetos. As abordagens do tipo "tradicional" identificam uma sequência de passos a serem completados. Essas abordagens contrastam com a abordagem conhecida como desenvolvimento ágil de software, em que o projeto é visto como um conjunto de pequenas tarefas, ao invés de um processo completo. O objetivo desta abordagem é reduzir ao mínimo possível o overhead. Essa abordagem é bastante controversa, especialmente em projetos muito complexos. Mesmo assim, tem conquistado adeptos em números crescentes.

Nas últimas décadas, emergiram uma série de abordagens na indústria em geral. Dentre essas abordagens se destaca a abordagem do PMBOK, que tem se tornado um padrão de facto em diversas indústrias.

Abordagem tradicional

Na abordagem tradicional, distinguem-se cinco grupos de processos no desenvolvimento de um projeto:

  1. Iniciação;
  2. Planejamento;
  3. Execução;
  4. Monitoramento e controle;
  5. Encerramento.

Nem todos os projetos vão seguir todos estes estágios, já que alguns podem ser encerrados antes do inicialmente esperado. Outros projetos passarão pelos estágios 2, 3 e 4 múltiplas vezes. O projeto ou empreendimento visa a satisfação de uma necessidade ou oportunidade, definida no texto acima como fase inicial na qual existem muitas áreas e/ou pessoas envolvidas.

Em geral sempre existe mais que uma solução ou alternativas para atender às mesmas necessidades. A técnica usada para definir a solução final passa pelo desenvolvimento de alternativas extremas. A primeira, de baixo custo, que atende as necessidades mínimas para ser funcional. A segunda tenta atender a maior parte das exigências das diversas áreas envolvidas no escopo, que resulta num projeto com custo muito maior e pouco competitivo. A partir de ambas as alternativas é desenvolvida uma solução intermediária entre as mesmas, que atende a uma boa parte das exigências com um custo competitivo.

Vários setores utilizam variações destes estágios. Por exemplo, na construção civil, os projetos tipicamente progridem de estágios como pré-planejamento para design conceitual, design esquemático, design de desenvolvimento, construção de desenhos (ou documentos de contrato) e administração de construção. Embora os nomes difiram de indústria para indústria, os estágios reais tipicamente seguem os passos comuns à resolução de problemas (problem solving): definir o problema, balancear opções, escolher um caminho, implementar e avaliar.

Para manter o controle sobre o projeto do início ao fim, um gerente de projetos utiliza várias técnicas, dentre as quais se destacam:

  • Planejamento de projeto;
  • Análise de valor agregado;
  • Gerenciamento de riscos de projeto;
  • Cronograma;
  • Melhoria de processo.

As Variáveis

Alguns empreendimentos necessitam ser executados e entregues sob determinadas variáveis ou restrições. As variáveis principais também podem ser denominadas como tradicionais. O gerenciamento de projetos tenta adquirir controle sobre três variáveis:

  • Tempo;
  • Custo;
  • Escopo.

Na versão atual do PMBOK, tríplice restrição foi eliminada, passando a existir restrições do projeto que são elas: Escopo, Qualidade, Cronograma, Orçamento, Recursos e Riscos. Portanto, qualquer alteração em um desses itens certamente haverá restrições em um ou mais dos demais itens.

Isto é conhecido também como "triângulo da gerência de projeto", ou "triângulo de restrições" onde cada lado representa uma variável. Um lado do triângulo não pode ser mudado sem impactar no outro. Como comentado anteriormente, alguns profissionais entendem que a variável qualidade está separada do escopo e o definem como sendo uma quarta variável, considerando a, desta forma, como parte do triângulo de restrição triplo expandido. Outros autores defendem, ainda, como sendo a terceira variável do "triângulo de restrições", classificando o âmbito (escopo), como uma das áreas do conhecimento - gestão do âmbito (PMBOK).

A restrição do tempo influencia o prazo até o término do projeto. A restrição de custo informa o valor monetário incluído no orçamento disponível para o projeto. Já a restrição do escopo designa o que deve ser feito para produzir o resultado de fim do projeto. Estas três variáveis estão freqüentemente competindo: o escopo aumentado significa tipicamente o tempo aumentado e o custo aumentado, uma restrição apertada de tempo poderia significar custos aumentados e o escopo reduzido, e um orçamento apertado poderia significar o tempo aumentado e o escopo reduzido.

A disciplina da gerência de projeto trata de fornecer as ferramentas e as técnicas que permitem a equipe de projeto, e não apenas ao gerente de projeto, organizar seu trabalho para lidar com essas variáveis.

Tempo

O tempo requerido para terminar os componentes do projeto é normalmente alterado quando se pretende baixar o tempo para execução de cada tarefa que contribui diretamente à conclusão de cada componente. Ao executar tarefas usando a gerência de projeto, é importante dividir o trabalho em diversas partes menores, de modo que seja fácil a definição das condições de criticidade e de folgas.

Custo

O Custo para desenvolver um projeto depende de diversas condições iniciais disponíveis para o desenvolvimento de cada projeto tais como: taxas labor, taxas materiais, gerência de risco, planta (edifícios, máquinas, etc), equipamentos e lucro.

Escopo

São as exigências especificadas para o resultado fim, ou seja, o que se pretende, e o que não se pretende realizar. A qualidade do produto final pode ser tratada como um componente do escopo. Normalmente a quantidade de tempo empregada em cada tarefa é determinante para a qualidade total do projeto.

Essas variáveis podem ser dadas por clientes externos ou internos. A definição dos valores das variáveis remanescentes fica a cargo do gerente do projeto, idealmente baseada em sólidas técnicas de estimativa. Os resultados finais devem ser acordados em um processo de negociação entre a gerência do projeto e o cliente. Geralmente, os valores em termos de tempo, custo, qualidade e escopo são definidos por contrato.

Padrões de gerência de projetos

Ao longo do tempo, houve diversas tentativas para desenvolver padrões internacionais de gerência de projetos. Dentre elas, destacam-se:

  • Project Management Body of Knowledge (PMBOK), um conjunto de conhecimentos gerenciado pela organização Project Management Institute. Tem-se tornado um padrão de fato em diversas indústrias;
  • ISO 10006: 1997, Quality management - Guidelines to quality in project management;
  • PRINCE2™: Projects IN a Controlled Environment;
  • Referencial Brasileiro de Competências (RBC), um dos conjuntos de conhecimentos mais recentes sobre gerenciamento de projetos, aborda além dos processos de gestão, competências Associação Brasileira de Gerenciamento de Projetos (ABGP);
  • ''IPMA Competence Baseline'' (ICB), edição mais recente do corpo de conhecimento desenvolvido pelo International Project Management Association, cuja representação no Brasil é realizada pela ABGP. Trata do olho da competência em gerenciamento de projetos e tenta trazer à área uma visão mais holística e inovadora do gerenciamento de projetos.

Ver também

  • Eliyahu M. Goldratt
  • Inteligência Organizacional
  • Planejamento de projeto
  • Processos da gerência de projetos
  • PMI
  • PMBOK

 

Referências

  • Heizer, Jay; Render Barry. "Operations Management": International Edition, 7ª Edição 2004, ISBN 131209744
  • Gaither, Norman. Production and Operations Management" International Edition, 5ª Edição 1992, ISBN 30746221
  • Monks, Joseph G. " Administração da Produção" Editora McGraw Hill, 1ª Edição 1987, ISBN 74502778

fonte.wikipedia

Software

 

Gerenciamento de nível de serviços é uma disciplina de gestão responsável pelo processo gerencial de planejamento, controle e definição do acordo de nível de serviço.

Ver também

  • Gerência de projetos
  • Ciclo PDCA/de Deming
  • Seis Sigma
  • W. Edwards Deming
  • Information Technology Infrastructure Library (ITIL)
  • GSTI

fonte.wikipedia

Software

 

O gerenciamento de serviços de TI tem por objetivo prover um serviço de TI com qualidade e alinhado às necessidades do negócio, buscando sempre uma redução de custos a longo prazo.[1]

Os serviços de TI devem atender às necessidades de negócios das organizações que são diferentes uma das outras devido a práticas e ramo de atuação. Porém a construção de serviços de TI de modo singular possui custos mais elevados de produção que podem tirar a competitividade das organizações. O tempo de desenvolvimento pode não atender as necessidades de mercado, não sendo raras as vezes que um serviço de TI é liberado e as necessidades de mercado já foram alteradas. Em certos casos para atender os tempos requeridos pelo mercado a qualidade dos serviços de TI é reduzida, através da redução do seu ciclo de desenvolvimento, prejudicando seu desempenho futuro ou mesmo, inibindo a sua reutilização para a composição de outros serviços de TI. Uma fábrica de serviços de TI tem o objetivo de resolver alguns desses problemas.

Processos ITIL Principais

Os principais processos e função do ITIL para suportar o gerenciamento de serviços de TI são:

  • Central de serviços (service desk)
  • Gestão de incidentes
  • Gestão de problemas
  • Gestão de mudança
  • Gestão de liberação
  • Gestão de configuração

Referências

  1. ↑ IT Service Management Forum (2002). van Bon, J.. ed. IT Service Management: An Introduction. Van Haren Publishing. ISBN 9080671347
Obtida de "http://pt.wikipedia.org/w/index.php?title=Gerenciamento_de_servi%C3%A7os_de_TI&oldid=26874703"

Software

 
A Wikipédia possui o portal:
Portal das tecnologias de informação

A segurança da informação está relacionada com proteção de um conjunto de dados, no sentido de preservar o valor que possuem para um indivíduo ou uma organização. São características básicas da segurança da informação os atributos de confidencialidade, integridade, disponibilidade e autenticidade, não estando esta segurança restrita somente a sistemas computacionais, informações eletrônicas ou sistemas de armazenamento. O conceito se aplica a todos os aspectos de proteção de informações e dados. O conceito de Segurança Informática ou Segurança de Computadores está intimamente relacionado com o de Segurança da Informação, incluindo não apenas a segurança dos dados/informação, mas também a dos sistemas em si.

Atualmente o conceito de Segurança da Informação está padronizado pela norma ISO/IEC 17799:2005, influenciada pelo padrão inglês (British Standard) BS 7799. A série de normas ISO/IEC 27000 foram reservadas para tratar de padrões de Segurança da Informação, incluindo a complementação ao trabalho original do padrão inglês. A ISO/IEC 27002:2005 continua sendo considerada formalmente como 17799:2005 para fins históricos.

Índice

  • 1 Conceitos de segurança
    • 1.1 Mecanismos de segurança
    • 1.2 Ameaças à segurança
    • 1.3 Nível de segurança
      • 1.3.1 Segurança física
      • 1.3.2 Segurança lógica
    • 1.4 Políticas de segurança
      • 1.4.1 Políticas de Senhas
    • 1.5 Ligações externas

Conceitos de segurança

A Segurança da Informação se refere à proteção existente sobre as informações de uma determinada empresa ou pessoa, isto é, aplica-se tanto as informações corporativas quanto às pessoais. Entende-se por informação todo e qualquer conteúdo ou dado que tenha valor para alguma organização ou pessoa. Ela pode estar guardada para uso restrito ou exposta ao público para consulta ou aquisição.

Podem ser estabelecidas métricas (com o uso ou não de ferramentas) para a definição do nível de segurança existente e, com isto, serem estabelecidas as bases para análise da melhoria ou piora da situação de segurança existente. A segurança de uma determinada informação pode ser afetada por fatores comportamentais e de uso de quem se utiliza dela, pelo ambiente ou infraestrutura que a cerca ou por pessoas mal intencionadas que têm o objetivo de furtar, destruir ou modificar tal informação.

A tríade CIA (Confidentiality, Integrity and Availability) -- Confidencialidade, Integridade e Disponibilidade -- representa os principais atributos que, atualmente, orientam a análise, o planejamento e a implementação da segurança para um determinado grupo de informações que se deseja proteger. Outros atributos importantes são a irretratabilidade e a autenticidade. Com a evolução do comércio eletrônico e da sociedade da informação, a privacidade é também uma grande preocupação.

Portanto os atributos básicos, segundo os padrões internacionais (ISO/IEC 17799:2005) são os seguintes:

  • Confidencialidade - propriedade que limita o acesso a informação tão somente às entidades legítimas, ou seja, àquelas autorizadas pelo proprietário da informação.
  • Integridade - propriedade que garante que a informação manipulada mantenha todas as características originais estabelecidas pelo proprietário da informação, incluindo controle de mudanças e garantia do seu ciclo de vida (nascimento,manutenção e destruição).
  • Disponibilidade - propriedade que garante que a informação esteja sempre disponível para o uso legítimo, ou seja, por aqueles usuários autorizados pelo proprietário da informação.

Para a montagem desta política, deve-se levar em conta:

  • Riscos associados à falta de segurança;
  • Benefícios;
  • Custos de implementação dos mecanismos.

Mecanismos de segurança

O suporte para as recomendações de segurança pode ser encontrado em:

  • Controles físicos: são barreiras que limitam o contato ou acesso direto a informação ou a infraestrutura (que garante a existência da informação) que a suporta.

Existem mecanismos de segurança que apóiam os controles físicos:

Portas / trancas / paredes / blindagem / guardas / etc ..

  • Controles lógicos: são barreiras que impedem ou limitam o acesso a informação, que está em ambiente controlado, geralmente eletrônico, e que, de outro modo, ficaria exposta a alteração não autorizada por elemento mal intencionado.

Existem mecanismos de segurança que apóiam os controles lógicos:

  • Mecanismos de criptografia. Permitem a transformação reversível da informação de forma a torná-la ininteligível a terceiros. Utiliza-se para tal, algoritmos determinados e uma chave secreta para, a partir de um conjunto de dados não criptografados, produzir uma sequência de dados criptografados. A operação inversa é a decifração.
  • Assinatura digital. Um conjunto de dados criptografados, associados a um documento do qual são função, garantindo a integridade e autenticidade do documento associado, mas não a sua confidencialidade.
  • Mecanismos de garantia da integridade da informação. Usando funções de "Hashing" ou de checagem, consistindo na adição.
  • Mecanismos de controle de acesso. Palavras-chave, sistemas biométricos, firewalls, cartões inteligentes.
  • Mecanismos de certificação. Atesta a validade de um documento.
  • Integridade. Medida em que um serviço/informação é genuíno, isto é, está protegido contra a personificação por intrusos.
  • Honeypot: É o nome dado a um software, cuja função é detectar ou de impedir a ação de um cracker, de um spammer, ou de qualquer agente externo estranho ao sistema, enganando-o, fazendo-o pensar que esteja de fato explorando uma vulnerabilidade daquele sistema.
  • Protocolos seguros: uso de protocolos que garantem um grau de segurança e usam alguns dos mecanismos citados aqui

Existe hoje em dia um elevado número de ferramentas e sistemas que pretendem fornecer segurança. Alguns exemplos são os detectores de intrusões, os anti-vírus, firewalls, firewalls locais, filtros anti-spam, fuzzers, analisadores de código, etc.

Ameaças à segurança

As ameaças à segurança da informação são relacionadas diretamente à perda de uma de suas 3 características principais, quais sejam:

  • Perda de Confidencialidade: seria quando há uma quebra de sigilo de uma determinada informação (ex: a senha de um usuário ou administrador de sistema) permitindo que sejam expostas informações restritas as quais seriam acessíveis apenas por um determinado grupo de usuários.
  • Perda de Integridade: aconteceria quando uma determinada informação fica exposta a manuseio por uma pessoa não autorizada, que efetua alterações que não foram aprovadas e não estão sob o controle do proprietário (corporativo ou privado) da informação.
  • Perda de Disponibilidade: acontece quando a informação deixa de estar acessível por quem necessita dela. Seria o caso da perda de comunicação com um sistema importante para a empresa, que aconteceu com a queda de um servidor ou de uma aplicação crítica de negócio, que apresentou uma falha devido a um erro causado por motivo interno ou externo ao equipamento ou por ação não autorizada de pessoas com ou sem má intenção.

No caso de ameaças à rede de computadores ou a um sistema, estas podem vir de agentes maliciosos, muitas vezes conhecidos como crackers, (hackers não são agentes maliciosos, pois tentam ajudar a encontrar possiveis falhas). Estas pessoas são motivadas para fazer esta ilegalidade por vários motivos. Os principais são: notoriedade, auto-estima, vingança e o dinheiro. De acordo com pesquisa elaborada pelo Computer Security Institute ([1]), mais de 70% dos ataques partem de usuários legítimos de sistemas de informação (Insiders) -- o que motiva corporações a investir largamente em controles de segurança para seus ambientes corporativos (intranet).

Invasões na Internet

Todo sistema de computação necessita de um sistema para proteção de arquivos. Este sistema é um conjunto de regras que garantem que a informação não seja lida, ou modificada por quem não tem permissão. A segurança é usada especificamente para referência do problema genérico do assunto, já os mecanismos de proteção são usados para salvar as informações a serem protegidas. A segurança é analisada de várias formas, sendo os principais problemas causados com a falta dela a perda de dados e as invasões de intrusos. A perda de dados na maioria das vezes é causada por algumas razões: fatores naturais: incêndios, enchentes, terremotos, e vários outros problemas de causas naturais; Erros de hardware ou de software: falhas no processamento, erros de comunicação, ou bugs em programas; Erros humanos: entrada de dados incorreta, montagem errada de disco ou perda de um disco. Para evitar a perda destes dados é necessário manter um backup confiável, guardado longe destes dados originais.

Exemplos de Invasões

O maior acontecimento causado por uma invasão foi em 1988, quando um estudante colocou na internet um programa malicioso (worm), derrubando milhares de computadores pelo mundo. Sendo identificado e removido logo após. Mas até hoje há controvérsias de que ele não foi completamente removido da rede. Esse programa era feito em linguagem C, e não se sabe até hoje qual era o objetivo, o que se sabe é que ele tentava descobrir todas as senhas que o usuário digitava. Mas esse programa se auto-copiava em todos os computadores em que o estudante invadia. Essa “brincadeira” não durou muito, pois o estudante foi descoberto pouco tempo depois, processado e condenado a liberdade condicional, e teve que pagar uma alta multa.

Um dos casos mais recentes de invasão por meio de vírus foi o do Vírus Conficker (ou Downup, Downadup e Kido) que tinha como objetivo afetar computadores dotados do sistema operacional Microsoft Windows, e que foi primeiramente detectado em outubro de 2008. Uma versão anterior do vírus propagou-se pela internet através de uma vulnerabilidade de um sistema de rede do Windows 2000, Windows XP, Windows Vista, Windows Server 2003, Windows Server 2008, Windows 7 Beta e do Windows Server 2008 R2 Beta, que tinha sido lançado anteriormente naquele mês. O vírus bloqueia o acesso a websites destinados à venda, protegidos com sistemas de segurança e, portanto, é possível a qualquer usuário de internet verificar se um computador está infectado ou não, simplesmente por meio do acesso a websites destinados a venda de produtos dotados de sistemas de segurança. Em janeiro de 2009, o número estimado de computadores infectados variou entre 9 e 15 milhões. Em 13 de fevereiro de 2009, a Microsoft estava oferecendo 250.000 dólares americanos em recompensa para qualquer informação que levasse à condenação e à prisão de pessoas por trás da criação e/ou distribuição do Conficker. Em 15 de outubro de 2008, a Microsoft liberou um patch de emergência para corrigir a vulnerabilidade MS08-067, através da qual o vírus prevalece-se para poder se espalhar. As aplicações da atualização automática se aplicam somente para o Windows XP SP2, SP3, Windows 2000 SP4 e Windows Vista; o Windows XP SP1 e versões mais antigas não são mais suportados. Os softwares antivírus não-ligados a Microsoft, tais como a BitDefender, Enigma Software, Eset,F-Secure, Symantec, Sophos, e o Kaspersky Lab liberaram atualizações com programas de detecção em seus produtos e são capazes de remover o vírus. A McAfee e o AVG também são capazes de remover o vírus através de escaneamentos de discos rígidos e mídias removíveis.

Através desses dados vemos que os anti-vírus devem estar cada vez mais atualizados, estão surgindo novos vírus rapidamente, e com a mesma velocidade deve ser lançado atualizações para os bancos de dados dos anti-vírus para que os mesmos sejam identificados e excluídos. Com a criação da internet essa propagação de vírus é muito rápida e muito perigosa, pois se não houver a atualização dos anti-virus o computador e usuário estão vulneráveis, pois com a criação da internet várias empresas começarão a utilizar internet como exemplo empresas mais precisamente bancos, mas como é muito vulnerável esse sistema, pois existem vírus que tem a capacidade de ler o teclado (in/out), instruções privilegiadas como os keyloggers. Com esses vírus é possível ler a senha do usuário que acessa sua conta no banco, com isso é mais indicado ir diretamente ao banco e não acessar sua conta pela internet.

Nível de segurança

Depois de identificado o potencial de ataque, as organizações têm que decidir o nível de segurança a estabelecer para uma rede ou sistema os recursos físicos e lógicos a necessitar de proteção. No nível de segurança devem ser quantificados os custos associados aos ataques e os associados à implementação de mecanismos de proteção para minimizar a probabilidade de ocorrência de um ataque.

Segurança física

Considera as ameaças físicas como incêndios, desabamentos, relâmpagos, alagamento, acesso indevido de pessoas, forma inadequada de tratamento e manuseio do material.

Segurança lógica

Atenta contra ameaças ocasionadas por vírus, acessos remotos à rede, backup desatualizados, violação de senhas, etc.

Segurança lógica é a forma como um sistema é protegido no nível de sistema operacional e de aplicação. Normalmente é considerada como proteção contra ataques, mas também significa proteção de sistemas contra erros não intencionais, como remoção acidental de importantes arquivos de sistema ou aplicação.

Políticas de segurança

De acordo com o RFC 2196 (The Site Security Handbook), uma política de segurança consiste num conjunto formal de regras que devem ser seguidas pelos utilizadores dos recursos de uma organização.

As políticas de segurança devem ter implementação realista, e definir claramente as áreas de responsabilidade dos utilizadores, do pessoal de gestão de sistemas e redes e da direção. Deve também adaptar-se a alterações na organização. As políticas de segurança fornecem um enquadramento para a implementação de mecanismos de segurança, definem procedimentos de segurança adequados, processos de auditoria à segurança e estabelecem uma base para procedimentos legais na sequência de ataques.

O documento que define a política de segurança deve deixar de fora todos os aspectos técnicos de implementação dos mecanismos de segurança, pois essa implementação pode variar ao longo do tempo. Deve ser também um documento de fácil leitura e compreensão, além de resumido.

Algumas normas definem aspectos que devem ser levados em consideração ao elaborar políticas de segurança. Entre essas normas estão a BS 7799 (elaborada pela British Standards Institution) e a NBR ISO/IEC 17799 (a versão brasileira desta primeira). A ISO começou a publicar a série de normas 27000, em substituição à ISO 17799 (e por conseguinte à BS 7799), das quais a primeira, ISO 27001, foi publicada em 2005.

Existem duas filosofias por trás de qualquer política de segurança: a proibitiva (tudo que não é expressamente permitido é proibido) e a permissiva (tudo que não é proibido é permitido).

Os elementos da política de segurança devem ser considerados:

  • A Disponibilidade: o sistema deve estar disponível de forma que quando o usuário necessitar, possa usar. Dados críticos devem estar disponíveis ininterruptamente.
  • A Legalidade
  • A Integridade: o sistema deve estar sempre íntegro e em condições de ser usado.
  • A Autenticidade: o sistema deve ter condições de verificar a identidade dos usuários, e este ter condições de analisar a identidade do sistema.
  • A Confidencialidade: dados privados devem ser apresentados somente aos donos dos dados ou ao grupo por ele liberado.

Políticas de Senhas

Dentre as políticas utilizadas pelas grandes corporações a composição da senha ou password é a mais controversa. Por um lado profissionais com dificuldade de memorizar varias senhas de acesso, por outro funcionários displicentes que anotam a senha sob o teclado no fundo das gavetas, em casos mais graves o colaborador anota a senha no monitor.

Recomenda-se a adoção das seguintes regras para minimizar o problema, mas a regra fundamental é a conscientização dos colaboradores quanto ao uso e manutenção das senhas.

  • Senha com data para expiração
Adota-se um padrão definido onde a senha possui prazo de validade com 30 ou 45 dias, obrigando o colaborador ou usuário a renovar sua senha.
  • Inibir a repetição
Adota-se através de regras predefinidas que uma senha uma vez utilizada não poderá ter mais que 60% dos caracteres repetidos, p. ex: senha anterior “123senha” nova senha deve ter 60% dos caracteres diferentes como “456seuse”, neste caso foram repetidos somente os caracteres “s” “e” os demais diferentes.
  • Obrigar a composição com número mínimo de caracteres numéricos e alfabéticos
Define-se obrigatoriedade de 4 caracteres alfabéticos e 4 caracteres numéricos, por exemplo:
1s4e3u2s ou posicional os 4 primeiros caracteres devem ser numéricos e os 4 subseqüentes alfabéticos por exemplo: 1432seus.
  • Criar um conjunto com possíveis senhas que não podem ser utilizadas
Monta-se uma base de dados com formatos conhecidos de senhas e proíbir o seu uso, como por exemplo o usuário chama-se Jose da Silva, logo sua senha não deve conter partes do nome como 1221jose ou 1212silv etc, os formatos DDMMAAAA ou 19XX, 1883emc ou I2B3M4
  • Recomenda-se ainda utilizar senhas com Case Sensitive e utilização de caracteres especiais como: @ # $ % & *

fonte.wikipedia

Software

 

ISO 27001

Origem: Wikipédia, a enciclopédia livre.

ISO/IEC 27001 é um padrão para sistema de gestão da segurança da informação (ISMS - Information Security Management System) publicado em outubro de 2005 pelo International Organization for Standardization e pelo International Electrotechnical Commision. Seu nome completo é ISO/IEC 27001:2005 - Tecnologia da informação - técnicas de segurança - sistemas de gerência da segurança da informação - requisitos mas conhecido como ISO 27001[1].

Seu objetivo é ser usado em conjunto com ISO/IEC 17799, o código de práticas para gerência da segurança da informação, o qual lista objetivos do controle de segurança e recomenda um conjunto de especificações de controles de segurança. Organizações que implementam um ISMS de acordo com as melhores práticas da ISO 17799 estão simultaneamente em acordo com os requisitos da ISO 27001, mas uma certificação é totalmente opcional.

Este padrão é o primeiro da família de segurança da informação relacionado aos padrões ISO que espera-se sejam agrupados à série 27000. Outros foram incluídos antecipadamente:

  • ISO 27000 - Vocabulário de Gestão da Segurança da Informação (sem data de publicação);
  • ISO 27001 - Esta norma foi publicada em Outubro de 2005 e substituiu a norma BS 7799-2 para certificação de sistema de gestão de segurança da informação;
  • ISO 27002 - Esta norma irá substituir em 2006/2007 o ISO 17799:2005 (Código de Boas Práticas);
  • ISO 27003 - Esta norma abordará as diretrizes para Implementação de Sistemas de Gestão de Segurança da Informação, contendo recomendações para a definição e implementação de um sistema de gestão de segurança da informação. Deverá ser publicada em 2006;
  • ISO 27004 - Esta norma incidirá sobre as métricas e relatórios de um sistema de gestão de segurança da informação. A sua publicação deverá ocorrer em 2007;
  • ISO 27005 - Esta norma será constituída por indicações para implementação, monitoramento e melhoria contínua do sistema de controles. O seu conteúdo deverá ser idêntico ao da norma BS 7799-3:2005 – “Information Security Management Systems - Guidelines for Information Security Risk Management”, a publicar em finais de 2005. A publicação da norma ISO 27005 ocorreu em meados de 2008;
  • ISO 27006 - Esta norma especifica requisitos e fornece orientações para os organismos que prestem serviços de auditoria e certificação de um sistema de gestão da segurança da informação.

ISO 27001 foi baseado e substitui o BS 7799 parte 2, o qual não é mais válido.

Índice

  • 1 Certificação
  • 2 Estágios
  • 3 Referências
  • 4 Ligações externas

Certificação

A série ISO 27000 está de acordo com outros padrões de sistemas de gerência ISO, como ISO 9001 (sistemas de gerência da qualidade) e ISO 14001 (sistemas de gerência ambiental), ambos em acordo com suas estruturas gerais e de natureza a combinar as melhores práticas com padrões de certificação.

Certificações de organização com ISMS ISO/IEC 27001 é um meio de garantir que a organização certificada implementou um sistema para gerência da segurança da informação de acordo com os padrões. Credibilidade é a chave de ser certificado por uma terceira parte que é respeitada, independente e competente. Esta garantia dá confiança à gerência, parceiros de negócios, clientes e auditores que uma organização é séria sobre gerência de segurança da informação - não perfeita, necessariamente, mas está rigorosamente no caminho certo de melhora contínua.

A ABNT - A Associação Brasileira de Normas Técnicas (ABNT) elaborou a NBR ISO/IEC 27001:2006 que é uma tradução idêntica da ISO/IEC 27001:2005, que foi elaborada pelo Join Technical Committee Information Technology (ISO/IEC/JTC 1), subcommittee IT Security Tecchniques (SC 27).

Certificação ISO/IEC 27001 geralmente envolve um processo de auditoria em dois estágios:

Estágios

Estágio um é uma revisão em cima da mesa da existência e completude de documentação chave como a política de segurança da organização, declaração de aplicabilidade (SoA) e plano de tratamento de risco (PTR).

Estágio dois é um detalhamento, com auditoria em profundidade envolvendo a existência e efetividade do controle ISMS declarado no SoA e PTR, bem como a documentação de suporte. Renovação do certificado envolve revisões periódicas e re-declaração confirmando que o ISMS continua operando como desejado.


fonte.wikipedia

Software

 

Cibernética é uma tentativa de compreender a comunicação e o controle de máquinas, seres vivos e grupos sociais através de analogias com as máquinas cibernéticas (homeostatos, servomecanismos, etc.).

Estas analogias tornam-se possíveis, na Cibernética, por esta estudar o tratamento da informação no interior destes processos como codificação e descodificação, retroação ou realimentação (feedback), aprendizagem, etc. Segundo Wiener (1968), do ponto de vista da transmissão da informação, a distinção entre máquinas e seres vivos, humanos ou não, é mera questão de semântica.

O estudo destes autômatos trouxe inferências para diversos campos da ciência. A introdução da idéia de retroação por Norbert Wiener rompe com a causalidade linear e aponta para a idéia de círculo causal onde A age sobre B que em retorno age sobre A. Tal mecanismo é denominado regulação e permite a autonomia de um sistema (seja um organismo, uma máquina, um grupo social). Será sobre essa base que Wiener discutirá a noção de aprendizagem.

É comum a confusão entre cibernética e robótica, em parte devido ao termo ciborgue (termo que pretendia significar CYBernetic ORGanism = Cyborg).

A cibernética foi estudada em diversos países tanto para o planejamento de suas economias como para o desenvolvimentos de maquinarias bélicas e industriais, como foram os casos da antiga URSS (onde se preocuparam com a gestão e controle da economia soviética propondo as perguntas: Quem produz? Quanto produz? Para quem produz?), da França, dos EUA e do Chile (GEROVITCH, 2003; MEDINA, 2006).

Referências

  • GEROVITCH, Slava. "Cybernetics and Information Theory in the United States, France and the Soviet Union". In: WALKER, Mark (Dir.). Science and Ideology: a comparative history. Londres: Rotledge, 2003. Disponível em: <http://www.infoamerica.org/documentos_word/shannon-wiener.htm>.
  • MEDINA, Eden. "Designing Freedom, Regulating a Nation: Socialist Cybernetics in Allende’s Chile". Journal of Latin American Studies, n. 38, 2006. Disponível em: <http://informatics.indiana.edu/edenm/EdenMedinaJLASAugust2006.pdf>.
  • WIENER, Norbert. Cibernética e sociedade: o uso humano de seres humanos. São Paulo: Cultrix, 1968.

"Cibernáutica" Sara Dias;

Ver também

  • Governança
  • Norbert Wiener
  • História da Cibernética
  • Regulação
  • Regulador
  • Stafford Beer
  • Teoria de sistemas
  • William Ross Ashby
Obtida de "http://pt.wikipedia.org/w/index.php?title=Cibern%C3%A9tica&oldid=27370916"

Software

 
O atrator de Lorenz é um exemplo de sistema dinâmico não-linear. O estudo deste sistema incentivou a criação da teoria do Caos.

Na física matemática e na matemática, o conceito de sistema dinâmico nasce da exigência de construir um modelo geral de todos os sistemas que evoluem segundo uma regra que liga o estado presente aos estados passados.

Índice

  • 1 História
  • 2 Definição
  • 3 Terminologia e notação
  • 4 Exemplos de comportamentos dinâmicos
  • 5 Subáreas
  • 6 Referências
  • 7 Ver também

História

Os primórdios da teoria dos sistemas dinâmicos podem ser identificados já no século XVI, nos trabalhos de mecânica celeste escritos por Johannes Kepler. As contribuições de Isaac Newton à modelagem matemática através da formalização da mecânica clássica abriram espaço para uma sofisticação crescente do aparato matemático que modela fenômenos mecânicos, culminando nos trabalhos de Lagrange e Hamilton, que definiram a teoria da mecânica clássica num contexto matemático, que essencialmente é o mesmo estudado até hoje.

O matemático francês Henri Poincaré é considerado um dos criadores da teoria moderna dos sistemas dinâmicos, tendo introduzido muitos dos aspectos do estudo qualitativo das equações diferenciais que permitiram estudar propriedades assintóticas das soluções (ou da maior parte das soluções) de uma equação diferencial, como estabilidade e periodicidade, sem ser necessário resolver explicitamente a equação diferencial. Tal abordagem pode ser encontrada na sua obra-prima Les méthodes nouvelles de la mécanique céleste, publicada em três volumes entre 1892 e 1899.

Considera-se que o primeiro livro publicado na área de sistemas dinâmicos é a obra Dynamical Systems, escrita pelo matemático estado-unidense George Birkhoff, e publicada em 1927.

Entre as ferramentas mais utilizadas na teoria dos sistemas dinâmicos estão a geometria diferencial , a teoria da medida e a a geometria simplética.

Definição

Sejam X um espaço topológico e (G,.) um semigrupo topológico. Dizemos que um sistema dinâmico é um par (X,A), onde é uma aplicação contínua que satisfaz:

  • , se e , e
  • , onde e e é o elemento neutro do grupo.

Terminologia e notação

Geralmente, escrevemos g.x para representar o elemento de X. No caso em que , dizemos que (X,A) é um sistema dinâmico contínuo. No caso em que ou , dizemos que (X,A) é um sistema dinâmico discreto.

Quando G não é um grupo, dizemos que é um sistema semidinâmico.

Geralmente, os sistemas dinâmicos discretos são definidos da seguinte maneira: se é um homeomorfismo de um espaço topológico nele mesmo, definimos , onde , e . Os sistemas dinâmicos definidos desta forma são os objetos de estudo da dinâmica topológica.

Já os sistemas dinâmicos contínuos são, quase sempre, definidos quando X é uma variedade suave, e A é um fluxo definido a partir de um campo vetorial diferenciável sobre M.

Seguindo a notação das definições anteriores, dizemos que:

  • X é o espaço de fase do sistema dinâmico.
  • é chamada de órbita de um .

Exemplos de comportamentos dinâmicos

  • O tipo mais simples de comportamento dinâmico de uma órbita é a de um ponto fixo. Por definição, um ponto x é ponto fixo caso sua órbita se reduza a somente um ponto. Por exemplo, considerando o sistema dinâmico discreto sobre a reta real definido pelas iterações da aplicação , temos que o ponto 0 é um ponto fixo.
  • Em seguida, temos que o comportamento dinâmico mais simples para um ponto pode ter é a periodicidade. Isto significa que existe um elemento do grupo tal que .

No caso de um sistema discreto, têm-se que a órbita de x é um conjunto finito. Ou seja, existe maior que um, e tais que , devemos ter, necessariamente, que a órbita de x é o conjunto . No caso do exemplo anterior, temos que os pontos 1 e − 1 são ambos pontos periódicos de período 2.

No caso de um sistema dinâmico contínuo, é possível mostrar que uma órbita periódica é homeomorfa a um círculo.

  • Os exemplos acima estão incluídos numa classe de subconjuntos chamados de subconjuntos invariantes pela dinâmica. Dizemos é invariante caso a órbita de um ponto está contida em S.

São de especial interesse os conjuntos invariantes compactos e minimais com esta propriedade. Dizemos que S é minimal caso seja invariante, compacto, e não contenha nenhum subconjunto próprio invariante. Em particular, temos que todo elemento x de um conjunto minimal S possui órbita densa em S, já que caso contrário, teríamos que o fecho da órbita de x é um subconjunto invariante e compacto contido em S.

A seguir, consideramos um sistema dinâmico discreto definido por um homeomorfismo :

  • Dizemos que um conjunto compacto é um atrator caso exista uma vizinhança U de Λ tal que e .
  • Um atractor estranho é um atractor que possui dimensão de Hausdorff superior à sua dimensão topológica. Exemplos de atractores estranhos são os atratores de Henon e diversos tipos de ferradura de Smale.

Subáreas

Os seguintes campos de estudos são, atualmente, considerados como subáreas da teoria dos sistemas dinâmicos, e são inspirados de muitas maneiras por problemas da física, computação, economia e biologia:

  • Teoria ergódica;
  • Dinâmica unidimensional;
  • Dinâmica parcialmente hiperbólica;
  • Dinâmica simbólica;
  • Sistemas hamiltonianos.

Referências

  • Birkhoff, G. (1927) Dynamical Systems. Ed. AMS books. ISBN 0-8218-3394-4.
  • Poincaré, H. Les méthodes nouvelles de la mécanique céleste. Gauthier-Villars, 1893. Vol. 1-3. Republicado por Blanchard, Paris, 1993.
  • Hasselblatt, B. e Katok, A. (1997) "The modern theory of dynamical systems." Encyclopedia of mathematics and its applications, 57. Cambridge University Press.

Ver também

  • Sistema dinâmico não linear
  • Sistema dinâmico de Liouville

fonte.wikipedia

Software

 

A teoria de sistemas estuda, de modo interdisciplinar, a organização abstrata de fenômenos, independente de sua formação e configuração presente. Investiga todos os princípios comuns a todas as entidades complexas, e modelos que podem ser utilizados para a sua descrição.

Índice

  • 1 Histórico
  • 2 Conceito
  • 3 Conceitos Fundamentais
  • 4 Pensamento sistêmico
  • 5 Sistema
  • 6 Ambiente
  • 7 Sistemas abertos
  • 8 Sistemas fechados
  • 9 Sinergia/Entropia
  • 10 Realimentações
  • 11 Teoria reducionista e teoria sistêmica
  • 12 Interdisciplinaridade
  • 13 Aplicações
  • 14 Bibliografia
  • 15 Ver também

Histórico

A teoria de sistemas, cujos primeiros enunciados datam de 1925, foi proposta em 1937 pelo biólogo Ludwig von Bertalanffy, tendo alcançado o seu auge de divulgação na década de 50. (ALVAREZ, 1990). Em 1956 Ross Ashby introduziu o conceito na ciência cibernética. A pesquisa de Von Bertalanffy foi baseada numa visão diferente do reducionismo científico até então aplicada pela ciência convencional. Dizem alguns que foi uma reação contra o reducionismo e uma tentativa para criar a unificação científica

Conceito

1.O Sistema é um conjunto de partes interagentes e interdependentes que, conjuntamente, formam um todo unitário com determinado objetivo e efetuam determinada função (OLIVEIRA, 2002, p. 35).

2. Sistema pode ser definido como um conjunto de elementos interdependentes que interagem com objetivos comuns formando um todo, e onde cada um dos elementos componentes comporta-se, por sua vez, como um sistema cujo resultado é maior do que o resultado que as unidades poderiam ter se funcionassem independentemente. Qualquer conjunto de partes unidas entre si pode ser considerado um sistema, desde que as relações entre as partes e o comportamento do todo sejam o foco de atenção (ALVAREZ, 1990, p. 17).

3. Sistema é um conjunto de partes coordenadas, formando um todo complexo ou unitário.

Conceitos Fundamentais

  • Entropia - todo sistema sofre deteriorização;
  • Sintropia, negentropia ou entropia negativa - para que o sistema continue existindo, tem que desenvolver forças contrárias à Entropia;
  • Homeostase - capacidade do sistema manter o equilibrio; e
  • Homeorrese - toda vez que há uma ação imprópria (desgaste) do sistema, ele tende a se equilibrar.

Para as ciências administrativas, o pensamento sistêmico é muito importante pois as organizações envolvem vários aspectos:

  • Transformações físicas necessárias à fabricação dos produtos e prestação dos serviços;
  • Comunicação entre os agentes e colaboradores para desenvolver, produzir e entregar o produto ou serviço atendendo as expectativas e necessidades do cliente;
  • Envolvimento das pessoas para que elas se empenhem no processo cooperativo;
  • Desenvolvimento de competências, habilidades e conhecimentos, para que as pessoas tenham condições de realizar o trabalho da maneira esperada;
  • Por esses motivos, as organizações podem ser entendidas como sistemas sociotécnicos abertos.

Pensamento sistêmico

A ciência do século passado adotava a mecânica clássica como modelo do pensamento científico. Isso equivale a pensar nas coisas como mecanismos e sistemas fechados. A ciência de nossos dias adota o organismo vivo como modelo, o que equivale a pensar em sistemas abertos.

Sistema

Sistema é um conjunto de elementos inter-relacionados. Assim, um sistema é uma entidade composta de pelo menos dois elementos e uma relação estabelecida entre cada elemento e pelo menos um dos demais elementos do conjunto. Cada um dos elementos de um sistema é ligado a todos os outros elementos, direta ou indiretamente.

Ambiente

O ambiente de um sistema é um conjunto de elementos que não fazem parte do sistema, mas que podem produzir mudanças no estado do sistema.

Sistemas abertos

Basicamente, a teoria de sistemas afirma que estes são abertos e sofrem interações com o ambiente onde estão inseridos. Desta forma, a interação gera realimentações que podem ser positivas ou negativas, criando assim uma auto regulação regenerativa, que por sua vez cria novas propriedades que podem ser benéficas ou maléficas para o todo independente das partes.

Sistemas fechados

Esses sistemas são aqueles que não sofrem influência do meio ambiente no qual estão inseridos, de tal forma que ele se alimenta dele mesmo. A entropia apenas se mantém constante nos sistemas isolados..

Sinergia/Entropia

Embora seja possível tentar entender o funcionamento de um carro só olhando as suas partes separadamente, o observador talvez não consiga compreender o que é um carro só olhando suas peças. É preciso entender de que forma as diferentes partes do sistema interagem. Essa interação dos elementos do sistema é chamada de sinergia. A sinergia é o que possibilita um sistema funcionar adequadamente.

Por outro lado a entropia (conceito da física) é a desordem ou ausência de sinergia. Um sistema pára de funcionar adequadamente quando ocorre entropia interna.

Realimentações

Os organismos (ou sistemas orgânicos) em que as alterações benéficas são absorvidas e aproveitadas sobrevivem, e os sistemas onde as qualidades maléficas ao todo resultam em dificuldade de sobrevivência, tendem a desaparecer caso não haja outra alteração de contrabalanço que neutralize aquela primeira mutação. Assim, de acordo com Ludwig von Bertalanffy a evolução permanece ininterrupta enquanto os sistemas se autoregulam.

Um sistema realimentado é necessariamente um sistema dinâmico, já que deve haver uma causalidade implícita. Em um ciclo de retroação uma saída é capaz de alterar a entrada que a gerou, e, consequentemente, a si própria. Se o sistema fosse instantâneo, essa alteração implicaria uma desigualdade. Portanto em uma malha de realimentação deve haver um certo retardo na resposta dinâmica. Esse retardo ocorre devido à uma tendência do sistema de manter o estado atual mesmo com variações bruscas na entrada. Isto é, ele deve possuir uma tendência de resistência a mudanças.

Teoria reducionista e teoria sistêmica

Segundo a teoria de sistemas, ao invés de se reduzir uma entidade (um animal, por exemplo.) para o estudo individual das propriedades de suas partes ou elementos (órgãos ou células), se deve focalizar no arranjo do todo, ou seja, nas relações entre as partes que se interconectam e interagem organica e estatisticamente.

Uma organização realimentada e auto gerenciada, gera assim um sistema cujo funcionamento é independente da substância concreta dos elementos que a formam, pois estes podem ser substituídos sem dano ao todo, isto é, a auto-regulação onde o todo assume as tarefas da parte que falhou. Portanto, ao fazermos o estudo de sistemas que funcionam desta forma, não conseguiremos detectar o comportamento do todo em função das partes. Exemplos são as partículas de determinado elemento cujo comportamento individual, embora previsto, não poderá nos indicar a posição ou movimentação do todo.

Interdisciplinaridade

Em biologia temos nas células um exemplo, pois não importa quão profundo o estudo individual de um neurônio do cérebro humano, este jamais indicará o estado de uma estrutura de pensamento, se for estirpado, ou morrer, também não alterará o funcionamento do cérebro. Uma área emergente da biologia molecular moderna que se utiliza bastante dos conceitos da Teoria de Sistemas é a Biologia Sistêmica.

Em eletrônica, um transistor numa central telefônica digital, jamais nos dará informações sobre o sistema, embora sua falha possa causar algum tipo de alteração na rede. Nas modernas centrais, os sinais remetidos a si serão automaticamente desviados para outro circuito.

Em Sociologia, a movimentação histórica de uma determinada massa humana, por mais que analisemos o comportamento de um determinado indivíduo isoladamente, jamais conseguiremos prever a condição do todo numa população. Os mesmos conceitos e princípios que orientam uma organização no ponto de vista sistêmico, estão em todas as disciplinas, físicas, biológicas, tecnológicas, sociológicas, etc. provendo uma base para a sua unificação.

Além dos exemplos citados, podemos observar a ação sistêmica no meio-ambiente, na produção industrial automatizada, em controles e processos, na teoria da informação, entre outros.

Aplicações

Na teorização matemática surgiu o desenvolvimento da isomorfia entre os modelos de circuitos elétricos e outros sistemas. As aplicações da teoria de sistemas abrangem o desenvolvimento de todos os ramos da ciência. Alguns exemplos são: engenharia, computação, ecologia, administração, psicoterapia familiar, termodinâmica, dinâmica caótica, vida artificial, inteligência artificial, redes neurais, modelagem, simulação computacional, jogos desportivos colectivos e turismo entre outras.

Bibliografia

  • Facets of Systems Science; KLIR, George J.; Springer Verlag; 1994
  • Introdução à Teoria Geral da Administração; CHIAVENATO, Idalberto; Ed. Makron Books
  • Teoria Geral dos Sistemas; BERTALANFFY, Ludwig Von.; Ed. Vozes;1975.
  • A Teia da Vida; CAPRA, Fritjof; Ed. Cultrix; 1997.

Ver também

  • Alexander Bogdanov
  • Autopoiese
  • Avalanche térmica
  • Cibernética
  • Complexidade
  • Francisco Varela
  • Fritjof Capra
  • Humberto Maturana
  • Niklas Luhmann
  • O Ponto de Mutação
  • Regulação
  • Sistemas complexos
  • Sistemas dinâmicos
  • Teoria do caos
  • Teoria semiótica da complexidade
  • Tectologia

fonte.wikipedia

Software

 

A Teoria da informação ou Teoria matemática da comunicação é um ramo da teoria da probabilidade e da matemática estatística que lida com sistemas de comunicação, transmissão de dados, criptografia, codificação, teoria do ruído, correção de erros, compressão de dados, etc. Ela não deve ser confundida com tecnologia da informação e biblioteconomia.

Claude E. Shannon (1916-2001) é conhecido como "o pai da teoria da informação". Sua teoria foi a primeira a considerar comunicação como um problema matemático rigorosamente embasado na estatística e deu aos engenheiros da comunicação um modo de determinar a capacidade de um canal de comunicação em termos de ocorrência de bits. A teoria não se preocupa com a semântica dos dados, mas pode envolver aspectos relacionados com a perda de informação na compressão e na transmissão de mensagens com ruído no canal.

É geralmente aceito que a moderna disciplina da teoria da informação começou com duas publicações: a do artigo científico de Shannon intitulado Teoria Matemática da Comunicação ("A Mathematical Theory of Communication"), no Bell System Technical Journal, em julho e outubro de 1948; e do livro de Shannon em co-autoria com o também engenheiro estadunidense Warren Weaver (1894-1978), intitulado Teoria Matemática da Comunicação (The Mathematical Theory of Communication), e contendo reimpressões do artigo científico anterior de forma acessível também a não-especialistas - isto popularizou os conceitos.

Índice

  • 1 Contexto histórico
  • 2 Entropia da informação
  • 3 Ver também
  • 4 Ligações externas

Contexto histórico

O marco que estabeleceu a teoria da informação e chamou imediatamente a atenção mundial foi o artigo A Mathematical Theory of Communication escrito por Claude E. Shannon de julho a outubro de 1948.

Antes deste artigo, algumas abordagens teóricas ainda que limitadas vinham sendo desenvolvidas nos laboratórias da Bell, todas implicitamente assumindo eventos de igual probabilidade. O artigo Certain Factors Affecting Telegraph Speed de Harry Nyquist escrito em 1924 contém uma seção teórica que quantifica inteligência e a velocidade de transmissão pela qual ela pode ser transmitida por um sistema de comunicação, estabelecendo a relação W = Klog m, onde W é a velocidade de transmissão da inteligência, m é o número de níveis de tensão para cada intervalo de tempo, e K é uma constante. Em 1928, Ralph Hartley publicou o artigo Transmission of Information, onde aparece a palavra informação como uma quantidade mensurável que a capacidade do destinatário distinguir diferentes sequências de símbolos, levando à expressão H = log Sn = nlog S, onde S e n representam, respectivamente, o número de símbolos possíveis e o número de símbolos na transmissão. Inicialmente, a unidade natural da transmissão foi definida como sendo o dígito decimal, sendo, posteriormente, renomeada para hartley em uma clara homenagem. Alan Turing em 1940, durante a 2ª Guerra Mundial, aplicou ideias similares como parte da análise estatística para decifrar a criptografia da máquina alemã Enigma.

Boa parte da matemática por trás da teoria da informação com eventos de diferentes probabilidades foi desenvolvida para os campos da termodinâmica por Ludwig Boltzmann e J. Willard Gibbs. As conexões entre as entropias da informação e termodinâmica, incluindo as importantes contribuições de Rolf Landauer na década de 1960, são exploradas na Entropia termodinâmica e teoria da informação.

No artigo seminal de Shannon, introduz-se pela primeira vez um modelo quantitativo e qualitativo da comunicação, apresentando-a como um processo estatístico subjacente à teoria da informação. Shannon inicia seu artigo dizendo

"O problema fundamental da comunicação é reproduzir em um dado ponto, exata ou aproximadamente, uma mensagem produzida em outro ponto."

Com este artigo vieram à tona os conceitos

  • de entropia da informação e redundância de uma fonte, e sua aplicação no teorema de codificação da fonte;
  • de informação mútua e capacidade de um canal com ruído, incluindo a promessa de comunicação sem perdas estabelecida no teorema de codificação de canais-ruidosos;
  • da lei de Shannon-Hartley para a capacidade de um canal Gaussiano;
  • do bit - uma nova forma de enxergar a unidade fundamental da informação.

Entropia da informação

No processo de desenvolvimento de uma teoria da comunicação que pudesse ser aplicada por engenheiros eletricistas para projetar sistemas de telecomunicação melhores, Shannon definiu uma medida chamada de entropia, definida como:

onde log é o logaritmo na base 2, que determina o grau de caoticidade da distribuição de probabilidade pi e pode ser usada para determinar a capacidade do canal necessária para transmitir a informação.

A medida de entropia de Shannon passou a ser considerada como uma medida da informação contida numa mensagem, em oposição à parte da mensagem que é estritamente determinada (portanto prevísivel) por estruturas inerentes, como por exemplo a redundância da estrutura das linguagens ou das propriedades estatísticas de uma linguagem, relacionadas às frequências de ocorrência de diferentes letras (monemas) ou de pares, trios, (fonemas) etc., de palavras. Veja cadeia de Markov.

A entropia como definida por Shannon está intimamente relacionada à entropia definida por físicos. Boltzmann e Gibbs fizeram um trabalho considerável sobre termodinâmica estatística. Este trabalho foi a inspiração para se adotar o termo entropia em teoria da informação. Há uma profunda relação entre entropia nos sentidos termodinâmico e informacional. Por exemplo, o demônio de Maxwell necessita de informações para reverter a entropia termodinâmica e a obtenção dessas informações equilibra exatamente o ganho termodinâmico que o demônio alcançaria de outro modo.

Outras medidas de informação úteis incluem informação mútua, que é uma medida da correlação entre dois conjuntos de eventos. Informação mútua é definida por dois eventos X e Y como:

onde H(X,Y) é a entropia conjunta (join entropy) ou

Informação mútua está relacionada de forma muito próxima com testes estatísticos como o teste de razão logarítmica e o teste Chi-square.

A teoria da informação de Shannon é apropriada para medir incerteza sobre um espaço desordenado. Uma medida alternativa de informação foi criada por Fisher para medir incerteza sobre um espaço ordenado. Por exemplo, a informação de Shannon é usada sobre um espaço de letras do alfabeto, já que letras não tem 'distâncias' entre elas. Para informação sobre valores de parâmetros contínuos, como as alturas de pessoas, a informação de Fisher é usada, já que tamanhos estimados tem uma distância bem definida.

Diferenças na informação de Shannon correspondem a um caso especial da distância de Kullback-Leibler da estatística Bayesiana, uma medida de distância entre distribuições de probabilidade a priori e a posteriori.

Andrei Nikolaevich Kolmogorov introduziu uma medida de informação que é baseada no menor algoritmo que pode computá-la (veja complexidade de Kolmogorov).

Ver também

  • Abraham Moles
  • Distância Levenshtein
  • Informação
  • Norbert Wiener

fonte.wikipedia

Software

 
A Wikipédia possui o portal:
Portal das tecnologias de informação

Uma rede de computadores consiste em 2 ou mais computadores e outros dispositivos interligados entre si de modo a poderem compartilhar recursos físicos e lógicos, estes podem ser do tipo: dados, impressoras, mensagens (e-mails),entre outros.[1]

A Internet é um amplo sistema de comunicação que conecta muitas redes de computadores. Existem várias formas e recursos de vários equipamentos que podem ser interligados e compartilhados, mediante meios de acesso, protocolos e requisitos de segurança.

Os meios de comunicação podem ser: linhas telefónicas, cabo ou satélite ou comunicação sem fios.

O objectivo das redes de computadores é permitir a troca de dados entre computadores e a partilha de recursos de hardware e software.

 

conectores RJ-45 usados para conectar redes em informática.
Imagem de um backbone, usado para interligar grandes redes, como a própria internet.

Índice

  • 1 História
  • 2 Classificação
  • 3 Hardware de Rede
  • 4 Modelo OSI
  • 5 Normas
  • 6 Técnicas de transmissão
  • 7 Modelagem de rede de computadores segundo Tanenbaum
  • 8 Topologia
    • 8.1 Topologia em Estrela
    • 8.2 Topologia em Barramento ou bus
    • 8.3 Topologia em Anel
  • 9 Meio físico
  • 10 Protocolo
  • 11 Referências

História

Antes do advento de computadores dotados com algum tipo de sistema de telecomunicação, a comunicação entre máquinas calculadoras e computadores antigos era realizada por usuários humanos através do carregamento de instruções entre eles.

Em setembro de 1940, George Stibitz usou uma máquina de teletipo para enviar instruções para um conjunto de problemas a partir de seu Model K na Faculdade de Dartmouth em Nova Hampshire para a sua calculadora em Nova Iorque e recebeu os resultados de volta pelo mesmo meio. Conectar sistemas de saída como teletipos a computadores era um interesse na Advanced Research Projects Agency (ARPA) quando, em 1962, J. C. R. Licklider foi contratado e desenvolveu um grupo de trabalho o qual ele chamou de a "Rede Intergaláctica", um precursor da ARPANET.

Em 1964, pesquisadores de Dartmouth desenvolveram o Sistema de Compartilhamento de Tempo de Dartmouth para usuários distribuídos de grandes sistemas de computadores. No mesmo ano, no MIT, um grupo de pesquisa apoiado pela General Electric e Bell Labs usou um computador (DEC’s PDP-8) para rotear e gerenciar conexões telefônicas.

Durante a década de 1960, Leonard Kleinrock, Paul Baran e Donald Davies, de maneira independente, conceituaram e desenvolveram sistemas de redes os quais usavam datagramas ou pacotes, que podiam ser usados em uma rede de comutação de pacotes entre sistemas de computadores.

Em 1969, a Universidade da Califórnia em Los Angeles, SRI (em Stanford), a Universidade da Califórnia em Santa Bárbara e a Universidade de Utah foram conectadas com o início da rede ARPANET usando circuitos de 50 kbits/s.

Redes de computadores e as tecnologias necessárias para conexão e comunicação através e entre elas continuam a comandar as indústrias de hardware de computador, software e periféricos. Essa expansão é espelhada pelo crescimento nos números e tipos de usuários de redes, desde o pesquisador até o usuário doméstico.

Atualmente, redes de computadores são o núcleo da comunicação moderna. O escopo da comunicação cresceu significativamente na década de 1990 e essa explosão nas comunicações não teria sido possível sem o avanço progressivo das redes de computadores.

Classificação


  • Segundo a Arquitetura de Rede:
    • Arcnet (Attached Resource Computer Network)
    • Ethernet
    • Token ring
    • FDDI (Fiber Distributed Data Interface)
    • ISDN (Integrated Service Digital Network)
    • Frame Relay
    • ATM (Asynchronous Transfer Mode)
    • X.25
    • DSL (Digital Subscriber Line)
  • Segundo a extensão geográfica:
    • SAN (Storage Area Network)
    • LAN (Local Area Network)
    • PAN (Personal Area Network)
    • MAN (Metropolitan Area Network)
    • WMAN Wireless Metropolitan Area Network, é uma rede sem fio de maior alcance em relação a WLAN
    • WAN (Wide Area Network)
    • WWAN Wireless Wide Area Network, é uma rede sem fio de maior alcance em relação a WAN
    • RAN (Regional Area Network)
    • CAN (Campus Area Network)
  • Segundo a topologia:
    • Rede em anel (Ring)
    • Rede em barramento (Bus)
    • Rede em estrela (Star)
    • Rede em malha (Mesh)
    • Rede em ponto-a-ponto
  • Segundo o meio de transmissão:
    • Rede por cabo
      • Rede de Cabo coaxial
      • Rede de Cabo de fibra óptica
      • Rede de Cabo de par trançado
    • Rede sem fios
      • Rede por infravermelhos
      • Rede por microondas
      • Rede por rádio

Hardware de Rede

  • Elementos de Cabeamento:
    • Cabo coaxial
    • Cabo de fibra óptica
    • Cabo de par trançado
    • Repetidor
    • Transceptor
  • Estação de trabalho
  • Placa de rede
  • Concentrador (hub)
  • Comutador (switch)
  • Roteador (router)
  • Modem
  • Porta de Ligação (gateway)
  • Ponte (bridge)
  • Servidor
    • Servidor de arquivos
    • Servidor de comunicações
    • Servidor de disco
    • Servidor de impressão
    • Servidor de bluetooth

Modelo OSI

  • Nível físico
  • Nível de enlace de dados
    • Ethernet
    • PPP
  • Nível de Rede
    • IP
    • IPX
  • Nível de transporte
    • TCP
    • UDP
  • Nível de sessão
    • NetBIOS
    • IPX
    • Appletalk
  • Nível de apresentação
  • Nível de aplicação
    • SMTP
    • FTP
    • Telnet
    • SSH
    • IRC
    • HTTP
    • POP3
    • VFRAD

Normas

  • IEEE 802
  • X.25

Técnicas de transmissão

  • Banda larga
  • Banda base

Modelagem de rede de computadores segundo Tanenbaum

Uma rede pode ser definida por seu tamanho, topologia, meio físico e protocolo utilizado.

  • PAN (Personal Area Network, ou rede pessoal). Uma PAN é uma rede de computadores usada para comunicação entre dispositivos de computador (incluindo telefones e assistentes pessoais digitais) perto de uma pessoa.
  • LAN (Local Area Network, ou Rede Local). É uma rede onde seu tamanho se limita a apenas uma pequena região física.
  • VAN (Vertical Area Network, ou rede de vertical). Uma VAN é usualmente utilizada em redes prediais, vista a necessidade de uma distribuição vertical dos pontos de rede.
  • CAN (Campus Area Network, ou rede campus). Uma rede que abrange uma área mais ampla, onde pode-se conter vários prédios dentro de um espaço continuos ligados em rede.
  • MAN (Metropolitan Area Network, ou rede metropolitana). A MAN é uma rede onde temos por exemplo, uma rede de farmácias, em uma cidade, onde todas acessam uma base de dados comum.
  • WAN (Wide Area Network, ou rede de longa distância). Uma WAN integra equipamentos em diversas localizações geográficas, envolvendo diversos países e continentes como a Internet.
  • SAN (Storage Area Network, ou Rede de armazenamento). Uma SAN serve de conexão de dispositivos de armazenamento remoto de computador para os servidores de forma a que os dispositivos aparecem como locais ligados ao sistema operacional.

Topologia

Topologia em Estrela


Topologia de rede em estrela

Neste tipo de rede, todos os usuários comunicam-se com um modo central, tem o controle supervisor do sistema, chamado host. Por meio do host os usuários podem se comunicar entre si e com processadores remotos ou terminais. No segundo caso, o host funciona como um comutador de mensagens para passar dados entre eles.

O arranjo em estrela é a melhor escolha se o padrão de comunicação da rede for de um conjunto de estações secundárias que se comunicam com o nó central. As situações nas quais isso acontece são aquelas em que o nó central está restrito às funções de gerente das comunicações e a operações de diagnósticos.

O gerenciamento das comunicações por este nó central pode ser por chaveamento de pacotes ou de circuitos.

O nó central pode realizar outras funções além das de chaveamento e processamento normal. Por exemplo, pode compatibilizar a velocidade de comunicação entre o transmissor e o receptor. Se o protocolo dos dispositivos fonte e destino for diferente, o nó central pode atuar como um roteador, permitindo duas redes de fabricantes diferentes se comunicar.

No caso de ocorrer falha em uma estação ou na ligação com o nó central, apenas esta estação fica fora de operação.

Entretanto, se uma falha ocorrer no nó central, todo sistema pode ficar fora do ar. A solução deste problema seria a redundância, mas isto acarreta um aumento considerável de custos.

A expansão de uma rede desse tipo só pode ser feita até um certo limite, imposto pelo nó central: em termos de capacidade de chaveamento, número de circuitos concorrentes que podem ser gerenciados e números de nós que podem ser servidos.

O desempenho obtido numa rede em estrela depende da quantidade de tempo requerido pelo nó central para processar e encaminhar mensagens, e da carga de tráfego de conexão, ou seja, é limitado pela capacidade de processamento do nó central.

Esta configuração facilita o controle da rede e a maioria dos sistemas de computação com funções de comunicação; possuem um software que implementa esta configuração.

Topologia em Barramento ou bus


Topologia de rede em barramento - Simples

Topologia em Anel


Topologia de rede em anel

A topologia em anel como o próprio nome diz tem um formato circular. redes de computadores!

Meio físico

O meio mais utilizado hoje é o Ethernet. O padrão Ethernet vem subdividido em: Coax/10base2, UTP (Unshielded Twisted Pair - Par Trançado Não Blindado)/10BaseT e UTP/100baseT e Gigabit ethernet.

Também pode ser conectado por Fibra óptica, um fino filamento contínuo de vidro com uma cobertura de proteção que pode ser usada para conectar longas distâncias.

E ainda há as redes sem fios, que se subdividem em diversas tecnologias: Wi-fi, bluetooth, wimax e outras.

Protocolo

Hoje, o protocolo mais usado é o TCP/IP, versão IPv4, e espera-se que passemos a utilizar o IPv6.

fonte.wikipedia

Software

 

Rede Complexa é uma forma de modelar a natureza onde as propriedades de um elemento são resumidas às conexões que ele estabelece com outros elementos do mesmo sistema. Em outras palavras, dado um grupo de elementos constituintes de um sistema natural qualquer, devemos determinar alguma regra para estabelecer uma ligação entre esses elementos. Esses elementos podem ser pessoas, proteínas, computadores, aeroportos entre outras coisas. As ligações, entretanto, dependem da característica que se quer estudar e refletem propriedades intrínsecas dos elementos considerados, por exemplo, pessoas podem estar ligadas por conexões de amizade ou devido ao compartilhamento de alguma opinião; enquanto aeroportos estarão ligados se possuem rotas que os conectam.

A Teoria das redes complexas (ou simplesmente Teoria das Redes), como tem sido chamada, possui forte caráter interdisciplinar. Pesquisadores de diferentes áreas tem colaborado para desenvolver novos métodos e modelar sistemas reais através de redes. Algumas propriedades da estrutura das redes e modelos de crescimento de redes aparecem em sistemas aparentemente distintos, como por exemplo, em biologia e tecnologia. A Teoria das redes, embora tenha surgido nas ciências naturais nos fins da década de 1990, pode ser vista como uma extensão da Teoria das redes sociais, estudadas há várias décadas por cientistas sociais e matemáticos.

Índice

  • 1 Formalismo Matemático
  • 2 Modelos de Redes
    • 2.1 Rede Aleatória
    • 2.2 Rede Livre de Escala
    • 2.3 Rede Mundo Pequeno
  • 3 Medidas
  • 4 Dinâmica nas Redes
  • 5 Referências
  • 6 Ligações externas

Formalismo Matemático

A Teoria de Redes usa o formalismo matemático da Teoria dos Grafos. Geralmente, métodos estatísticos são utilizados para se caracterizar a estrutura de conexões da rede. Ferramentas e métodos da Mecânica Estatística também são muito utilizados para criar modelos e analisar a estrutura das redes.

A cada elemento de uma rede é associado um (ou vértice) e a ligação entre os nós se dá por meio de uma aresta. A forma usual de se trabalhar com redes complexas é usando uma matriz de adjacência A onde os índices i e j representam os nós e os elementos a(i,j) representam as ligações entre os nós. As ligações podem ser unidirecionais, bidirecionais, sem direção (matriz simétrica), simples (a(i,j)=1 ou a(i,j)=0) ou com pesos (a(i,j)>=0).

Embora redes complexas e grafos muitas vezes serem usados como sinônimos, existe uma sutil diferença conceitual entre os dois termos. Os grafos são, na verdade, a representação matemática abstrata das redes complexas, enquanto nas redes, os nós e as arestas possuem propriedades baseadas no sistema que se está estudando. Em outras palavras, pode-se entender as redes como os grafos quando aplicados ao sistema real em estudo.

Modelos de Redes

Rede Aleatória

A rede mais fundamental é a aleatória atribuída a Erdös & Rènyi. Dado um número N de nós, estabelece-se conexão entre nós com uma probabilidade p, ou seja, suponha que cada possível conexão entre quaisquer pares de nós na rede possuam uma probabilidade de conexão q, então, apenas as conexões com probabilidade menor ou igual a p, serão de fato estabelecidas.

Rede Livre de Escala

Rede Livre de Escala (Scale-free em inglês) é o nome dado a rede crescida a partir do mecanismo de conexão preferencial proposto independentemente por Barabàsi e colaboradores em 1998 (Na verdade, esse modelo foi proposto por Simon em 1955 para explicar a distribuicão de palavras num livro). A cada passo de tempo, um vértice com um número fixo de arestas é adicionado a rede. Essas arestas se conectam preferencialmente aos vértices da rede com maior grau.

Rede Mundo Pequeno

A rede Mundo Pequeno (Small-world em inglês) é uma rede que possui alto grau de agrupamento e baixa distância média entre os vértices. Foi inicialmente proposta por Watts e Strogatz em 1998.

Medidas

Ao número de conexões que um dado nó estabele com outros nós da rede é dado o nome de grau do nó (node-degree em inglês), que pode ser obtido tomando-se os valores da diagonal da matriz A*A.

A conectividade entre vizinhos comuns a um nó de referência pode ser quantificada através do coeficiente de aglomeração (clustering coefficient em inglês). Usualmente, esse coeficiente é dado pela razão entre o número de conexões entre vizinhos comuns a um nó de referência, dividido pelo número de possíveis conexões entre os vizinhos comuns ao nó.

A distância (ou menor caminho) entre dois nós i e j é o número mínimo de arestas necessário percorrer para chegar a j a partir de i.

Outras medidas muito utilizadas incluem: diâmetro, betweenness, closenness, número de ciclos, medidas hierárquicas, motivos (motifs em inglês), etc.

Dinâmica nas Redes

Acredita-se que a estrutura de conexões de uma rede influencie a propagação de informação ou outras quantidades num sistema em particular. Desta forma, é sugerido que a estrutura de conexões sociais entre indivíduos influencie na difusão de idéias e boatos na sociedade. Também é sugerido, por exemplo, que a estrutura de parceiros sexuais influencia na propagação de infecções sexualmente transmissíveis e a estrutura de conexões entre computadores na Internet na propagação de vírus eletrônicos.


fonte.wikipedia

Software

 

Rede social

Uma rede social é uma estrutura social composta por pessoas ou organizações, conectadas por um ou vários tipos de relações, que partilham valores e objetivos comuns. Uma das características fundamentais na definição das redes é a sua abertura e porosidade, possibilitando relacionamentos horizontais e não hierárquicos entre os participantes. "Redes não são, portanto, apenas uma outra forma de estrutura, mas quase uma não estrutura, no sentido de que parte de sua força está na habilidade de se fazer e desfazer rapidamente." [1]

Muito embora um dos princípios da rede seja sua abertura e porosidade, por ser uma ligação social, a conexão fundamental entre as pessoas se dá através da identidade. "Os limites das redes não são limites de separação, mas limites de identidade. (...) Não é um limite físico, mas um limite de expectativas, de confiança e lealdade, o qual é permanentemente mantido e renegociado pela rede de comunicações." [2]

As redes sociais online podem operar em diferentes níveis, como, por exemplo, redes de relacionamentos (facebook, orkut, myspace, twitter), redes profissionais (LinkedIn), redes comunitárias (redes sociais em bairros ou cidades), redes políticas, dentre outras, e permitem analisar a forma como as organizações desenvolvem a sua actividade, como os indivíduos alcançam os seus objectivos ou medir o capital social – o valor que os indivíduos obtêm da rede social.

As redes sociais tem adquirido importância crescente na sociedade moderna. São caracterizadas primariamente pela autogeração de seu desenho, pela sua horizontalidade e sua descentralização.

Um ponto em comum dentre os diversos tipos de rede social é o compartilhamento de informações, conhecimentos, interesses e esforços em busca de objetivos comuns. A intensificação da formação das redes sociais, nesse sentido, reflete um processo de fortalecimento da Sociedade Civil, em um contexto de maior participação democrática e mobilização social.

Índice

  • 1 Formas de redes sociais
  • 2 Análise de redes sociais
  • 3 Referências
  • 4 Bibliografia

Formas de redes sociais

As redes sociais costumam reunir uma motivação comum, porém podem se manifestar de diferentes formas. As principais são:

Redes comunitárias, estabelecidas em bairros ou cidades, em geral tendo a finalidade de reunir os interesses comuns dos habitantes, melhorar a situação do local ou prover outros benefícios.

Redes profissionais, prática conhecida como networking,tal como o linkedin, que procura fortalecer a rede de contatos de um indivíduo, visando futuros ganhos pessoais ou profissionais.

Redes sociais online, tais como facebook, orkut, myspace, twitter, que são um serviço online, plataforma ou site que foca em construir e refletir redes sociais ou relações sociais entre pessoas, que, por exemplo, compartilham interesses e/ou atividades.

Análise de redes sociais

Um exemplo de um diagrama de uma rede social. O com maior grau de centralidade de intermediação está representado em amarelo

A análise de redes sociais (relacionada com as redes complexas) surgiu como uma técnica chave na sociologia moderna. O conceito surgiu na Sociologia e Antropologia Social. No final do século XX, o termo passou a ser olhado como um novo paradigma das ciências sociais, vindo ser aplicada e desenvolvida no âmbito de disciplinas tão diversas como a antropologia, a biologia, os estudos de comunicação, a economia, a geografia, as ciências da informação, a psicologia social e, sobretudo, no serviço social.

A ideia de rede social começou a ser usada há cerca de um século atrás, para designar um conjunto complexo de relações entre membros de um sistema social a diferentes dimensões, desde a interpessoal à internacional.

Em 1954, J. A. Barnes começou a usar o termo sistematicamente para mostrar os padrões dos laços, incorporando os conceitos tradicionalmente usados quer pela sociedade quer pelos cientistas sociais: grupos bem definidos (ex.: tribos, famílias) e categorias sociais (ex.: género, grupo étnico).

Académicos como S.D. Berkowitz, Stephen Borgatti, Ronald Burt, Kathleen Carley, Martin Everett, Katherine Faust, Linton Freeman, Mark Granovetter, David Knoke, David Krackhardt, Peter Marsden, Nicholas Mullins, Anatol Rapoport, Stanley Wasserman, Barry Wellman, Douglas R. White ou Harrison White expandiram e difundiram o uso sistemático da análise de redes sociais.[3]

Em teoria, na estrutura das redes sociais os atores sociais se caracterizam mais pelas suas relações do que pelos seus atributos (gênero, idade, classe social). Estas relações tem uma densidade variável, a distância que separa dois atores é maior ou menor e alguns atores podem ocupar posições mais centrais que outros. Este fenômeno é explicado por alguns téoricos apontando a existência de laços fortes e fracos e a dos buracos estruturais onde se encontram os atores que não podem comunicar entre si a não ser por intermédio dum terceiro.[4]

No estudo da estrutura das redes sociais é necessário incluir as relações de parentesco de seus membros, redes sociométricas, capital social, redes de apoio, de mobilização, interconexões entre empresas e redes de política pública.

É composta por três elementos básicos:

  • Nós ou atores
  • Vínculos
  • Fluxos de informação (unidirecional ou bidimensional)

Referências

  1. ↑ [Duarte, Fábio e Frei, Klaus. Redes Urbanas. In: Duarte, Fábio; Quandt, Carlos; Souza, Queila. (2008). O Tempo Das Redes, p. 156. Editora Perspectiva S/A. ISBN 978-85-273-0811-3]
  2. ↑ [Capra, Fritjof. Vivendo Redes. In: Duarte, Fábio; Quandt, Carlos; Souza, Queila. (2008). O Tempo Das Redes, pp. 21/23. Editora Perspectiva S/A. ISBN 978-85-273-0811-3]
  3. ↑ Linton Freeman, The Development of Social Network Analysis. Vancouver:Empirical Press, 2006.
  4. ↑ LEMIEUX,VINCENT. MATHIEU OUIMET, Sérgio Pereira. Análise Estrutural das Redes Sociais. 1ª Edição.Instituto Piaget. 2008/01. ISBN 9789727719334

fonte.wikipedia

Software

 

Computação científica (ou ciência computacional) é o campo de estudo interessado na construção de modelos matemáticos e técnicas de soluções numéricas utilizando computadores para analisar e resolver problemas científicos e de engenharia. De forma prática, é a aplicação de simulação computacional outras formas de computação para problemas em diversas disciplinas científicas.

O campo é distinto da ciência da computação, o estudo matemático da computação, dos computadores e do processamento de informação. Também é diferente da teoria e experimentação, formas tradicionais de ciência e engenharia. Cientistas e engenheiros desenvolvem programas de computador que modelam sistemas sendo estudados e os executam com diversos conjuntos de parâmetros de entrada. Tipicamente, tais modelos requerem uma grande quantidade de cálculo, e são geralmente executados em supercomputadores ou plataformas de computação distribuída.

A computação científica é atualmente considerada como um terceiro modo da ciência, complementado a experimentação (observação) e a teoria.

Aplicações

Elementos do domínio de problemas para a computação científica incluem a simulação numérica, que pode ser usada para reconstruir ou entender eventos conhecidos, como um desastre natural, e para prever o futuro ou situações não observadas, como o tempo. Outra aplicação é a adequação de modelos e a análise de dados, como o uso da teoria de grafos para modelar redes. Uma outra aplicação é o uso de diversos parâmetros em um modelo computacional para encontrar cenários otimizados.

Implementação

Linguagens de programação geralmente usadas para aspectos mais matemáticos da computação científica incluem Fortran, MATLAB, GNU Octave e PDL. Para aspectos mais intensos computacionalmente são geralmente utilizadas variações de C ou Fortran.


fonte.wikipedia

Software

 

Um sistema é dito ser um sistema complexo quando suas propriedades não são uma consequência natural de seus elementos constituintes vistos isoladamente. As propriedades emergentes de um sistema complexo decorrem em grande parte da relação não-linear entre as partes. Costuma-se dizer de um sistema complexo que o todo é mais que a soma das partes. Exemplos de sistemas complexos incluem sistemas sociais (redes sociais), biológicos (colônias de animais) e físicos (clima). Áreas intimamente relacionadas a sistemas complexos são a teoria do caos e sistemas multiagentes, e um embasamento teórico e filosófico para estes sistemas é encontrado no estudo da complexidade.

Índice

  • 1 Propriedades dos Sistemas Complexos
    • 1.1 Unidade Coletiva
    • 1.2 Organicidade funcional
    • 1.3 Propriedade emergente
    • 1.4 Multi-escalas
  • 2 Sistemas Complexos são estudados pelas seguintes áreas
  • 3 Ligações externas

Propriedades dos Sistemas Complexos

Unidade Coletiva

Um Sistema Complexo é composto por um conjunto de partes conectadas por alguma forma de inter-relação entre elas. Assim, para caracterizar um sistema é necessário não somente conhecer as partes, mas também os modos de relação entre elas. Isto gera um fluxo de informações não triviais de se investigar, com uma série de consequências e propriedades emergentes. As partes, conectadas por uma rede de relações, geram conjuntamente uma Unidade Coletiva comumente chamado Sistema. Molécula, célula, ecossistema, cidade, colônia de formigas, cérebro, computador, ser humano, cidade podem ser considerados como um sistema ou unidade coletiva. Cada sistema possui suas regras internas, e um elemento ao ser inserido no sistema fica sujeito as leis próprias desse sistema. Um estrangeiro ao entrar em um país fica sujeito a jurisdição deste país, uma proteína ao ser absorvida por uma célula fica sujeita a dinâmica da célula e assim por diante.

Organicidade funcional

Em um Sistema Complexo cada subsistema possui um processamento interno de informações (ou processamento algorítmico), de modo que ocorre uma relação funcional entre os subsistemas. Porém, pode acontecer também Sistemas Complexos em que cada parcela (subsistema) possui o mesmo algoritmo de processamento interno e mesmo assim geram-se propriedades coletivas complexas. Pode-se então considerar que um Sistema Complexo é um conjunto de partes ou subsistemas com processamentos internos singulares, conectadas entre si, de modo que formam uma unidade coletiva com uma dinâmica própria e com propriedades emergentes.

Propriedade emergente

As interações entre as partes de um Sistema Complexo criam um padrão coletivo chamado propriedade emergente. Estas propriedades consistem em uma exteriorização do Sistema Complexo. Em outras palavras, a dinâmica das partes em uma escala de relação produz uma propriedade emergente em um nível mais alto de escala.

Multi-escalas

Assim, no estudo dos Sistemas Complexos ocorrem sistemas interagindo com outros sistemas, de modo a formar Sistemas mais amplos em escalas e com propriedades emergentes. Tal processo ocorre em escalas progressivamente mais amplas ou mais restritas, ou seja, ocorrem expressões de sistemas em multi-escalas. Cada escala possui as suas próprias leis. Por exemplo, em um gás ideal, cada átomo interage com os outros átomos com colisões elásticas, isto gera uma propriedade coletiva onde o conjunto dos átomos é descrito pela Lei de Clapeyron (PV=nRT). Outro exemplo: em um órgão, o conjunto de seus tecidos possuem uma dinâmica de inter-relacional própria, enquanto as células da qual elas são formadas, possuem outros formas de leis de interação (algoritmos diferentes). Porém deve-se ressaltar que as escalas são correlacionadas, de modo que alterando-se uma, modificam-se as outras de maneira não-linear.

Sistemas Complexos são estudados pelas seguintes áreas

A área de Sistemas Complexos é formada por diversas áreas do conhecimento, ou então, pode ser considerado que diversas áreas do conhecimento trabalham com sistemas com características complexas. Algumas áreas são:

  • Auto-organização
  • Autômatos celulares
  • Cibernética
  • Complexidade
  • Computação Científica
  • Dinâmica Não-linear
  • Geometria Fractal
  • Inteligência Artificial
  • Nanotecnologia
  • Pensamento sistêmico
  • Percolação
  • Redes
  • Redes Complexas
  • Teoria do Caos
  • Teoria da Catástrofe
  • Teoria da Complexidade Computacional
  • Teoria da Evolução
  • Teoria da informação
  • Teoria Geral dos Sistemas
  • Teoria semiótica da complexidade
  • Sistemas dinâmicos

fonte.wikipedia

Software

 

Apps (do inglês application) é uma forma abreviada para software aplicativo. A extensão .app significa aplicação em Symbian OS, SkyOS, GNUstep e Mac OS X.[1] Executa funções específicas em computadores ou dispositivos móveis, como smartphones, sendo voltado ao usuário final. É incapaz de ser executado fora de um sistema operacional, sendo desenvolvido na linguagem nativa ou compatível com a do sistema do dispositivo. As linguagens de programação mais utilizadas no desenvolvimento de apps são C++, Java, e Python. ‎

 

Índice

  • 1 Definição de aplicativos mobile
  • 2 Vantagens do uso de aplicativos mobile
  • 3 Desvantagens do uso de Aplicativos mobile
  • 4 Principais categorias de aplicativos móveis
  • 5 Desenvolvimento de aplicativos mobile
  • 6 Escolha da plataforma de desenvolvimento
  • 7 Plataformas que suportam dispositivos de vários fabricantes
  • 8 Distribuição de aplicativos
  • 9 Lojas de aplicativos
    • 9.1 Ovi Store
    • 9.2 Android Market
    • 9.3 App World
    • 9.4 App Store
  • 10 Referências
  • 11 Ligações externas

Definição de aplicativos mobile

Aplicativo do Imovelweb para celular

Aplicativos mobile são softwares utilizados para funções específicas em dispositivos móveis como smartphones e tablets. Eles estão disponíveis através de plataformas de distribuição de aplicações que são normalmente operadas pelo proprietário do sistema operacional móvel, como App Store, Android Market, BlackBerry App World, Ovi Store, entre outros. Alguns aplicativos são gratuitos, e outros têm um preço. Normalmente eles são baixados da plataforma para um dispositivo de destino, como um iPhone, BlackBerry, Android ou telefone, mas às vezes eles podem ser baixados para computadores menos móveis, tais como laptops ou desktops. Os aplicativos são destinados à facilitar o desempenho de atividades práticas do usuário assim como para puro divertimento.

Vantagens do uso de aplicativos mobile

  • Melhor experiência para o usuário: Aplicativos mobile possibilitam uma melhor utilização de recursos gráficos e de interface, proporcionando um uso mais rápido e agradável para o usuário. Além disso, é possível disponibilizar conteúdo para ser acessado de modo offline, ou seja, sem conexão com a internet.
  • Menor custo de acesso: Nos aplicativos toda a parte da interface já se encontra instalada no celular, o que implica em um tráfego de dados muito menor para se acessar um determinado conteúdo da internet.
  • Acesso a recursos nativos do celular: Os aplicativos possibilitam a utilização de recursos nativos do celular como a câmera fotográfica, GPS, bluetooth,agenda telefônica,entre outros.
  • Vendas: É possível uma empresa vender bens, conteúdos e acessos premium dentro dos aplicativos.

Desvantagens do uso de Aplicativos mobile

  • Atualização de versões: Para cada alteração na estrutura ou contéudo do aplicativo, o usuário precisará efetuar uma nova instalação na nova versão disponibilizada.
  • Plataformas distintas: A gama de fabricantes e plataformas de desenvolvimento faz com que um aplicativo não funcione em todos os aparelhos.

 

Principais categorias de aplicativos móveis

  • Serviços: Aplicações úteis para resolver problemas e aumentar a produtividade em mobilidade como consultas, previsões, mapas, operações em tempo real, entre outros.
  • Informações: Acesso a conteúdos diversos em mobillidade como endereços, telefones, promoções, produtos, entre outros.
  • Comunicação: Interação com outras pessoas atracés de e-mail e redes sociais.
Angry Birds é um jogo de ação disponível no Android Market, App Store e em celulares com Symbian.
  • Entretenimento: Uso destinado à diversão como os jogos por exemplo.

 

Desenvolvimento de aplicativos mobile

O desenvolvimento de aplicativos mobile é o processo na qual aplicativos são desenvolvidos para dispositivos móveis, como smartphones, assistentes pessoais digitais e assistentes digitais empresariais. Estas aplicações são pré-instaladas durante a fabricação, ou os clientes das mais variadas plataformas de distribuição de software móvel realizam o download.

 

Escolha da plataforma de desenvolvimento

Existem várias plataformas que um desenvolvedor pode escolher para seus aplicativos. Porém, em geral, são mutuamente incompatíveis (ou seja, um aplicativo desenvolvido em uma plataforma não irá rodar em outra). Além disso, cada dispositivo móvel suporta apenas uma plataforma em particular. Portanto, para maximizar o alcance e as receitas para as suas aplicações, um desenvolvedor precisa decidir cuidadosamente quais plataformas irá apoiar.

Desde os primeiros computadores portáteis da década de 1980, a popularidade dessas plataformas tem aumentado consideravelmente. Muitos modelos de celulares do final dos anos 2000 incluem a capacidade de executar o software instalado pelo usuário.

Plataformas que suportam dispositivos de vários fabricantes

Projetada desde o início para dispositivos móveis, a plataforma Symbian é um sistema operacional multitarefa especificamente projetado para funcionar bem em sistemas de recursos limitados, maximizando o desempenho e vida útil da bateria e, ao mesmo tempo, minimizando o uso de memória.

Distribuição de aplicativos

A lista abaixo resume o fluxo de desenvolvimento de um aplicativo até a disponibilização do mesmo em uma das plataformas de distribuição de aplicações e posterior verificação de sucesso do aplicativo.

  • Tornar-se parceiro da loja;
  • Desenvolver o aplicativo;
  • Submeter o aplicativo à loja;
  • Aguardar aprovação da loja;
  • A loja disponibiliza o aplicativo para download;
  • Empresa divulga o aplicativo;
  • Usuário realiza o download do aplicativo;
  • Empresa mensura resultados.

 

Lojas de aplicativos

Existem inúmeras opções de aplicativos disponíveis na internet para download. São oferecidos gratuitamente ou a baixo custo, podendo ser encontrados em lojas de aplicativos. Exemplos de lojas de apps para celulares:

Loja Apps Downloads Usuários Plataforma Found In
Ovi Store 2500 10 milhões 250 milhões Symbian S60 + Java
Android Market 30000 n/d 1 milhão Android
App World 2000 n/d 8 milhões Blackberry OS
App Store 140000 3 bilhões 75 milhões Iphone OS
Software Store (Palm) 5000 1,8 milhão 150 mil WebOS
Windows Marketplace for Mobile 376 n/d n/d Windows Mobile

 

Ovi Store

Uma loja de aplicativos para os celulares Nokia foi lançada internacionalmente em maio de 2009. Em abril de 2011 havia 50.000 apps, e em agosto de 2011, 9.000.000 downloads por dia. Em fevereiro de 2011, a Nokia informou que vai estar usando o Windows Phone 7 como seu principal sistema operacional, porém a loja Ovi ainda estará disponível para celulares Symbian.[2]


Na loja virtual da Nokia, o usuário pode realizar o download de jogos, aplicativos, vídeos, imagens e toques em seus celulares. O serviço oferecido pela operadora interliga os aparelhos móveis aos computadores pessoais, fácilitando o compartilhamento dos conteúdos criados pela Internet. O usuário indica o modelo de seu aparelho celular e todo o conteúdo disponível para ele é automaticamente filtrado, contendo as recomendações de outros usuários. Os aplicativos estão divididos em classificações bem definidas apresentando facilidade no momento de realizar download.

Android Market

Android Market no Samsung Galaxy S

O Android Market é uma loja de aplicativos móveis desenvolvido pelo Google para dispositivos Android. Foi inaugurado em outubro de 2008.[3] Em março de 2009, cerca de 2300 aplicativos estavam disponíveis. Em maio de 2011, o Google anunciou que há 200 mil apps[4],com 4,5 mil milhões de aplicativos baixados e instalados.[5]

O Android Market apresenta para todos os aparelhos compatíveis com a plataforma Android uma gama de aplicativos para diversos estilos e situações. A divisão é feita basicamente por programas pagos ou gratuitos, com uma interface muito simples de compreender, incluindo links para os sites oficiais dos softwares. No próprio site também está disponível o SDK para que os desenvolvedores possam criar e vender os seus aplicativos.

App World

BlackBerry App World é um serviço de distribuição de aplicativos pela Research In Motion (RIM) para a maioria dos dispositivos BlackBerry. O serviço oferece aos usuários do BlackBerry um ambiente de navegação para fazer downloads e atualização de aplicativos. O serviço entrou no ar em 01 de abril de 2009.[6]

App Store


A App Store é um serviço para o iPhone, iPod Touch e iPad criado pela Apple Inc., que permite aos usuários navegar e fazer download de aplicativos da iTunes Store. Dependendo da aplicação, ela pode ser grátis ou paga. As aplicações podem ser baixadas diretamente no dispositivo, ou baixados para um computador via iTunes.

Referências

  1. ↑ About Bundles, Mac OS X Reference Library, Apple Developer Center
  2. Nokia and Microsoft Announce Plans for a Broad Strategic Partnership to Build a New Global Mobile Ecosystem. Microsoft News Center. Microsoft (February 11, 2011). Página visitada em October 30, 2011.
  3. ↑ Chu, Eric (13 February 2009). Android Market Update Support.
  4. ↑ Lawson, Stephen (17 March 2009). Android Market Needs More Filters, T-Mobile Says. PC World.
  5. ↑ Barra, Hugo (10 May 2011). Android: momentum, mobile and more at Google I/O. The Official Google Blog. Página visitada em 10 May 2011.
  6. ↑ Perez, Marin (2008-10-21). RIM Announces BlackBerry App Store. InformationWeek. Página visitada em 2009-03-09.

Ligações externas

Obtida de "http://pt.wikipedia.org/w/index.php?title=App&oldid=27642989"

Software

 

Nos últimos anos a questão do software livre nos governos está na ordem do dia. Alguns governos começaram a adoptar leis ou medidas favoráveis ao software livre. Os casos mais notáveis são os do Brasil e da França. Alguns governos locais como o da Extremadura espanhola e o da cidade de Munique também passaram a adoptar uma atitude mais favorável ao software livre.

A questão da adopção de software livre pelos governos é uma questão polêmica. Por um lado, as organizações defensoras do software livre procuram mostrar as vantagens do software livre, enquanto pelo outro as grandes empresas de software proprietário, sendo a Microsoft a mais notável, procuram defender a tese contrária.

Índice

  • 1 Argumentos favoráveis
  • 2 Argumentos contrários
  • 3 Ver também
  • 4 Referências
  • 5 Ligações externas

Argumentos favoráveis

Segundo as organizações defensoras do software livre, os governos deviam adotar o software livre porque:

  • Promove a independência do fornecedor já que o governo não fica amarrado às tecnologias proprietárias, tampouco obrigado a refazer licenças a cada vez que algum software deixa de ter suporte ou lançar nova versão.
  • Promove a inclusão digital, já que o desenvolvimento da cultura de software livre permite que a classe baixa possa usufruir de softwares de alta qualidade com todos os seus recursos sem nenhum custo adicional.
  • Diminui a necessidade de pirataria, disponibilizando conteúdos e softwares de qualidade para os cidadãos.
  • Respeita o dinheiro público, pois deixaria de pagar as licenças cada vez mais caras do software proprietário.
  • Defenderiam a sua soberania, particularmente no que se refere a software (sejam Sistemas Operacionais ou não) que em teoria podem, de maneira furtiva, enviar dados dos computadores de usuários para os sites dos fabricantes (ou outros não identificados).
  • Facilita do desenvolvimento da economia interna. Os desenvolvedores e técnicos locais encontrariam emprego na construção de soluções próprias ou dando suporte a soluções já implementadas.

Argumentos contrários

Os defensores do software proprietário contrapõem que:

  • O software livre tem custos de manutenção maiores porque requer pessoal especializado, e a maioria dos técnicos locais já possuem conhecimentos para trabalhar nos atuais sistemas.
  • A questão da soberania não é assim tão importante porque as grandes empresas de software estão dispostas a fornecer acesso a seus códigos fontes para a análise dos governos ou de grandes grupos empresariais.

Os juristas divergem sobre a obrigatoriedade do uso de software livre na administração pública, mas autores como o Prof. Túlio Vianna são categóricos em afirmar que os princípios econômicos consagrados na Constituição de 1988 impõem o uso do software livre quando houver software disponível nesta licença.[1]


fonte.wikipedia

Software

 
Ilustração frequentemente usada como logo para o Projeto GNU
A Wikipédia possui o portal:
Software Livre

Software livre, segundo a definição criada pela Free Software Foundation, é qualquer programa de computador que pode ser usado, copiado, estudado e redistribuído sem restrições. O conceito de livre se opõe ao conceito de software restritivo (software proprietário), mas não ao software que é vendido almejando lucro (software comercial). A maneira usual de distribuição de software livre é anexar a este uma licença de software livre, e tornar o código fonte do programa disponível.

Índice

  • 1 Definição
    • 1.1 Software Livre e Software em Domínio Público
    • 1.2 Software Livre e Copyleft
    • 1.3 Venda de Software Livre
  • 2 Movimento Software Livre
    • 2.1 Motivação
    • 2.2 Ideologia: as diferenças entre Software Livre e Código Aberto
  • 3 Movimentos Relacionados
  • 4 Software Freedom Day
  • 5 Softwares livres notáveis
  • 6 Ver também
    • 6.1 Associações
    • 6.2 Conceitos
    • 6.3 Conferências
    • 6.4 Exemplos famosos
    • 6.5 Indivíduos
    • 6.6 Licenças livres
    • 6.7 Movimentos
  • 7 Ligações externas
  • 8 Referências

Definição

O logotipo da Free Software Foundation.

Um software é considerado como livre quando atende aos quatro tipos de liberdade para os usuários do software definidas pela Free Software Foundation:

  • Liberdade 0: A liberdade para executar o programa, para qualquer propósito
  • Liberdade 1: A liberdade de estudar como o programa funciona, e adaptá-lo para as suas necessidades
  • Liberdade 2: A liberdade de redistribuir, cópias de modo que você possa ajudar ao seu próximo.
  • Liberdade 3: A liberdade de modificar o programa, e liberar estas modificações, de modo que toda a comunidade se beneficie

Acesso ao código-fonte é um pré-requisito para as liberdades de 1,2,3.

A liberdade de executar o programa significa a liberdade para qualquer tipo de pessoa física ou jurídica utilizar o software em quantas máquinas quiser, em qualquer tipo de sistema computacional, para qualquer tipo de trabalho ou atividade, sem nenhuma restrição imposta pelo fornecedor.

A liberdade de redistribuir o programa compilado, isto é em formato binário, necessariamente inclui a obrigatoriedade de disponibilizar seus códigos-fonte. Caso o software venha a ser modificado e o autor da modificação queira distribuí-lo, gratuitamente ou não, será também obrigatória a distribuição do código fonte das modificações, desde que elas venham a integrar o programa. Não é necessária a autorização do autor ou do distribuidor do software para que ele possa ser redistribuído, já que as licenças de software livre assim o permitem.

Para que seja possível estudar ou modificar o software (para uso particular ou para distribuir) é necessário ter acesso ao código-fonte. Por isso a disponibilidade desses arquivos é pré-requisito para a liberdade do software. Cada licença determina como será feito o fornecimento do código fonte para distribuições típicas, como é o caso de distribuições em mídia portátil somente com os códigos binários já finalizados (sem o fonte). No caso da licença GPL, a fonte deve ser disponibilizada em local de onde possa ser acessado, ou deve ser entregue ao usuário, se solicitado, sem custos adicionais (exceto transporte e mídia).

Para que essas liberdades sejam reais, elas devem ser irrevogáveis. Caso o desenvolvedor do software tenha o poder de revogar a licença, o software não é livre.

A maioria dos softwares livres é licenciada através de uma licença de software livre, como a GNU GPL, a mais conhecida.

Software Livre e Software em Domínio Público

Software livre é diferente de software em domínio público. O primeiro, quando utilizado em combinação com licenças típicas (como as licenças GPL e BSD), garante a autoria do desenvolvedor ou organização. O segundo caso acontece quando se passam os anos previstos nas leis de cada país de proteção dos direitos do autor e este se torna bem comum. Ainda assim, um software em domínio público pode ser considerado como um software livre, desde que atenda aos quatro tipos de liberdade para os usuários do software definidas pela Free Software Foundation, citados acima.

Software Livre e Copyleft

Licenças como a GPL contêm um conceito adicional, conhecido como Copyleft, que se baseia na propagação dos direitos. Um software livre sem copyleft pode ser tornado não-livre por um usuário, caso assim o deseje. Já um software livre protegido por uma licença que ofereça copyleft, se distribuído, deverá ser sob a mesma licença, ou seja, repassando os direitos.

Associando os conceitos de copyleft e software livre, programas e serviços derivados de um código livre devem obrigatoriamente permanecer com uma licença livre (os detalhes de quais programas, quais serviços e quais licenças são definidos pela licença original do programa). O usuário, porém, permanece com a possibilidade de não distribuir o programa e manter as modificações ou serviços utilizados para si próprio.

Venda de Software Livre

As licenças de software livre permitem que eles sejam vendidos, mas estes em sua grande maioria estão disponíveis gratuitamente.

Uma vez que o comprador do software livre tem direito às quatro liberdades listadas, ele poderia redistribuir este software gratuitamente ou mediante remuneração. As versões pagas geralmente são acompanhadas de algum tipo de serviço adicional, como direito a assistência técnica por determinado período e manuais, por exemplo. Muitas vezes comprar o software é mais vantajoso para o cliente final que não tem muita experiência em programação, poupando tempo.

Movimento Software Livre

Richard Stallman, o fundador do Movimento do Software Livre.

Motivação

Os desenvolvedores de software na década de 70 frequentemente compartilhavam seus programas de uma maneira similar aos princípios do software livre. No final da mesma década, as empresas começaram a impor restrições aos usuários com o uso de contratos de licença de software. Em 1983, Richard Stallman iniciou o projeto GNU, e em outubro de 1985 fundou a Free Software Foundation (FSF). Stallman introduziu os conceitos de software livre e copyleft, os quais foram especificamente desenvolvidos para garantir que a liberdade dos usuários fosse preservada.

Ideologia: as diferenças entre Software Livre e Código Aberto

Muitos defensores do software livre argumentam que a liberdade é valiosa não só do ponto de vista técnico, mas também sob a ótica da moral e ética. É neste aspecto que o movimento de software livre (encabeçado pela FSF) se distingue do movimento de código aberto (encabeçado pela OSI), que enfatiza a superioridade técnica em relação a software proprietário, ao menos em potencial.

Os defensores do código aberto (também conhecido como open source em inglês) argumentam a respeito das virtudes pragmáticas do software livre ao invés das questões morais. A discordância básica dos movimentos está no discurso. Enquanto o foco do movimento encabeçado pela FSF chama a atenção para valores morais, éticos, direitos e liberdade, o movimento encabeçado pela OSI defende um discurso mais agradável às empresas. Com isso, o movimento de software livre condena o uso e desenvolvimento de software proprietário, enquanto o movimento de código aberto é conivente com o desenvolvimento de software proprietário.

As definições oficiais de software livre e de código aberto são as mesmas, porém escritas de formas distintas. A OSI define o código aberto usando a definição Debian de software livre, que é apenas um detalhamento das 4 liberdades da FSF. Desta forma todo software de código aberto é também um software livre.

O movimento software livre não costuma tomar uma posição sobre trabalhos que não sejam softwares e suas respectivas documentações, mas alguns defensores do software livre acreditam que outros trabalhos que servem a um propósito prático também devem ser livres (veja Free content).

Para o Movimento do software livre, que é um movimento social, não é ético aprisionar conhecimento científico, que deve estar sempre disponível, para assim permitir a evolução da humanidade. Já o movimento pelo Código Aberto, que é um movimento mais voltado ao mercado, prega que o software desse tipo traz diversas vantagens técnicas e econômicas. O segundo surgiu para levar as empresas a adotarem o modelo de desenvolvimento de software livre.

Como a diferença entre os movimentos "Software Livre" e "Código Aberto" está apenas na argumentação em prol dos mesmos softwares, é comum que esses grupos se unam em diversas situações ou que sejam citados de uma forma agregadora através da sigla "FLOSS" (Free/Libre and Open Source Software).

Movimentos Relacionados

Inspirados na GPL e nas propostas do movimento do software livre, foi criado um repositório de licenças públicas, chamado Creative Commons, cujos termos se aplicam a variados trabalhos criativos, como criações artísticas colaborativas, textos e software.[1] Entretanto a maioria destas licenças não são reconhecidas como realmente livres pela FSF e pelo movimento de software livre.

O software livre está inserido num contexto mais amplo onde a informação (de todos os tipos, não apenas software) é considerada um legado da humanidade e deve ser livre (visão esta que se choca diretamente ao conceito tradicional de propriedade intelectual). Coerentemente, muitas das pessoas que contribuem para os movimentos de Conhecimento Aberto — movimento do software livre, sites Wiki, Creative Commons, etc. — fazem parte da comunidade científica.

Cientistas estão acostumados a trabalhar com processos de revisão mútua (ou por pares) e o conteúdo desenvolvido é agregado ao conhecimento científico global. Embora existam casos onde se aplicam as patentes de produtos relacionados ao trabalho científico, a ciência pura, em geral, é livre.[2]

Software Freedom Day

No dia 20 de setembro comemora-se o Dia da Liberdade do Software (Software Freedom Day) com eventos envolvendo as comunidades de usuários e desenvolvedores de software livre em todo o mundo.[3]

Softwares livres notáveis


Ver também

Associações

  • Free Software Foundation
    • Free Software Foundation Europe
    • Free Software Foundation India
    • Free Software Foundation Latin America

Conceitos

  • Livre associação
  • Lei de Linus
  • Publicação aberta

Conferências

  • FISL (Fórum Internacional de Software Livre)

Exemplos famosos

  • Ambiente de trabalho GNOME.
  • GNU, projeto de desenvolvimento de um sistema operacional completamente livre.
  • Núcleo operacional Linux.
  • Servidor web, Apache.
  • Gerenciador de conteúdos WordPress.
  • Suite de criação de conteúdo 3D Blender.

Indivíduos

  • Eric Steven Raymond
  • Richard M. Stallman
  • John "Maddog" Hall
  • Sérgio Amadeu

Licenças livres

  • GNU General Public License

Movimentos

  • Software livre nos governos

fonte.wikipeida

Software

 

Business to Business - B2B é o nome dado ao comércio associado a operações de compra e venda, de informações, de produtos e de serviços através da Internet ou através da utilização de redes privadas partilhadas entre duas empresas, substituindo assim os processos físicos que envolvem as transacções comerciais. O B2B pode também ser definido como troca de mensagens estruturadas com outros parceiros comerciais a partir de redes privadas ou da Internet, para criar e transformar assim as suas relações de negócios.

A Internet tem revolucionado os negócios, desempenhando um papel fundamental na transformação do mundo em um enorme mercado global, criando assim uma "economia digital". E-Business começa a ser uma necessidade cada vez maior para as empresas se manterem competitivas na economia digital de hoje, deixando de ser uma mera questão de escolha. A Internet tem criado oportunidades para as empresas expandirem os seus mercados, reduzindo os custos, aumentando a eficiência e a satisfação dos clientes e colaborando com os seus parceiros, bem como com os concorrentes. O comércio B2B é uma área em que tais empresas podem atingir tais níveis de eficiência. Para responder ao desafio da globalização do comércio electrónico, as empresas precisam de um processo eficaz e eficiente que satisfaça os negócios da necessidade de comprar e vender produtos de forma mais económica e eficaz.

Consequentemente, identificam-se, de entre vários, três grupos principais de portais B2B, a saber (Carvalho, 2006, p.38):

  • Portais para colaboradores (intranet) – são portais em que a empresa promove a comunicação interna, i. e., para com os seus colaboradores e entre colaboradores. Estas redes são restritas aos colaboradores da empresa ou grupo de empresas, permitindo o acesso a um conjunto de recursos da rede interna dessa empresa ou grupo de empresas. Através destes portais é possível unir os colaboradores da empresa, independentemente do local físico onde se encontrem e, portanto, vencer as distâncias que os separem;
  • Portais para parceiros (extranet) – são portais em que se promovem as relações entre empresas (B2B) ou entre uma dada empresa e as empresas com quem ela pretendem manter relações. São, portanto, redes que unem a empresa e os seus parceiros de negócio, com o objectivo de promover a colaboração e a partilha de informação;
  • Portais de terceiros ou e-markeplaces – são plataformas de intermediação que promovem a união de várias organizações compradoras e vendedoras. A negociação de produtos e serviços tem como suporte a Internet, que facilita e promove a compra online, num ambiente de muitos compradores e muitos fornecedores e/ou em ambientes mais limitados e dependentes, também, das características monopolistas, oligopolistas ou abertas dos mercados de origem das ofertas e procuras.

 

Índice

  • 1 O conceito de e-Hub
  • 2 Desafios na implementação iniciativa B2B
    • 2.1 Desafios tecnológicos
      • 2.1.1 Segurança
      • 2.1.2 Integração de sistemas
      • 2.1.3 Redes de capacidades
      • 2.1.4 Gestão de conteúdo
      • 2.1.5 Recuperação de backups
    • 2.2 Desafios nos negócios
      • 2.2.1 Gestão da Mudança
      • 2.2.2 Modelos de negócios
      • 2.2.3 Canais de conflito
    • 2.3 Desafios legais e regulamentares
    • 2.4 Desafios comportamentais
  • 3 Referências
  • 4 Bibliografia
  • 5 Ver também

O conceito de e-Hub

Para explorar plenamente o potencial do B2B as empresas precisam de pensar em termos de e-Hubs. Um e-Hub está habilitado para uma plataforma da Web que permite encontrar parceiros comerciais, troca e partilha de informações relacionadas com as actividades de compra e venda. Diversas transacções de inbound ou outbound necessária ao cumprimento de pedidos dos clientes são automatizadas.

Kevin M. McKelvie e Mark Simmonds definem "e-Hub como um conjunto de tecnologias que proporcionam ao longo de toda a cadeia de suprimentos a integração e colaboração, partilha de informação, uma visibilidade ampla de actividades relacionadas com o planeamento, aquisição directa, e a execução final. Ao fazê-lo assim, a e-Hub optimiza a cadeia de fornecimento propriamente dita e todos os seus participantes ".

Flexível, confiável e altamente disponível. Os e-marketplaces devem ter funcionalidades e capacidades que atravessam o processo empresarial, podendo, assim, proporcionar aos seus membros os maiores valores.

E-Markets ou B2B estão a mudar o paradigma empresarial. Os E-Markets não tem só o objectivo de trazer parceiros comerciais em conjunto, mas também concorrentes. A ideia por trás destes mercados é a partilha de informações, aumentar colaboração e proporcionar um maior valor para os accionistas das empresas. Os concorrentes trabalham em conjunto com outros concorrentes para determinar a procura do mercado, e partilhar informações para aumentar a eficiência em toda a cadeia de fornecimento.

As trocas são cada vez mais sofisticadas desenvolvendo mais capacidades de ponta. As trocas começam a incutir mais "núcleo" funcional do tipo de soluções ERP e serviços. Algumas destas capacidades destes intercâmbios deverão ter:

  • Integração e colaboração de orientação: Um verdadeiro B2B deve promover capacidades de colaboração com vários parceiros. Devem permitir colaboração de gestão do inventário, planeamento e programação. As actividades de projecto colaborativo de produto têm-se tornado possíveis graças à troca de capacidades. Hewlett Packard, por exemplo, apoia os esforços de colaboração entre os seus 1000 fornecedores para fabricar produtos padrão para hardware da HP. Essa colaboração não teria sido possível sem a colaboração de software da HP de troca privada.
  • Funcionalidade: E-Markets devem esforçar-se para fornecer funcionalidades e serviços a um maior número de participantes. As funcionalidades de um Prestador de Serviços Logísticos deve ser desenvolvido para a troca privada, que está mais centralizado em torno de uma empresa e os seus parceiros comerciais.
  • Escalabilidade / disponibilidade: Um B2B ideal deverá ter capacidades para lidar com grandes volumes de dados. Uma boa infra-estrutura informática deve ser posta em prática para garantir a carga da manipulação e disponibilidade de serviços. Disponibilidade do serviço 24 x 7 x 365 não é mais uma questão de escolha, mas uma exigência de todos os pedidos do e-business.
  • Segurança: Um B2B deverá ter capacidades para proporcionar transacções seguras para os seus clientes. Tecnologias como criptografia, Secure Socket Layer ou chaves de validação são algumas das tecnologias que podem ser usadas. Um bom procedimento de autenticação e autorização deve ser posto em prática. Estas ferramentas e procedimentos devem ser permanentemente actualizados para ficar à frente dos piratas informáticos e ciber-criminosos.
  • Privacidade: Adequadas políticas de privacidade devem ser postas em prática e eficazmente implementadas. As empresas não querem partilhar as suas informações com ninguém, adoptando terceiros como auditores internos que devem olhar para estes processos e certificar a adequação das práticas e procedimentos.
  • Conteúdo / catálogo de gestão: Capacidade de criar e gerir elementos do site como texto gráficos, ficheiros embutidos e applets é outro aspecto importante. O Web site deve ser amigável e fácil de navegar. Características como a personalização e customização podem não só aumentar a satisfação do utilizador levando-o a executar experiências mais enriquecedoras, mas também a fazer um intercâmbio mais eficaz.
  • Arquitectura Hub-and-spoke: Desenvolvimento e construção de uma arquitectura aberta, onde os participantes podem facilmente ser adicionados ou removidos e onde o crescimento da experiência é muito importante. Ter uma estrutura escalável, sem ter que reestruturar tudo devido à mudança das circunstâncias é um factor de sucesso crucial.

Desafios na implementação iniciativa B2B

A maior parte das empresas tem reconhecido o potencial do comércio B2B e B2C. Assim, por opção ou por força (como resultado da concorrência) tenham saltado para a carruagem de uma forma ou de outra, muitas vezes sem perceber a magnitude dos desafios de execução. Para explorar plenamente os benefícios deste novo fenómeno, as empresas devem definir as suas prioridades. Qualquer empresa que participe na e-business enfrenta muitos desafios. Alguns destes desafios são:

Desafios tecnológicos

Os principais desafios enfrentados pelas organizações ao abrigo desta categoria são:

Segurança

Proporcionar uma segurança adequada dos recursos de tecnologias informáticas à empresa é uma questão muito importante. Devem existir medidas adequadas para proporcionar segurança às bases de dados, redes, aplicações, sistemas de pagamento e de sistemas de operação.

Autenticação de procedimentos e políticas devem ser desenvolvidas, implementadas e actualizadas regularmente para proporcionar um ambiente seguro. Uso de tecnologias como criptografia, Secured Socket Layer e Public Key Infrastructure podem ajudar a organização a ultrapassar este desafio.

Outro desafio que se coloca é o dever da empresa ter uma clara política de privacidade. Os clientes não irão para o comércio no caso de a informação não estar garantida e política de privacidade não ser segura. A implementação de iniciativas como a TRUSTe percorre um longo caminho no estabelecimento da credibilidade das empresas, para ganhar a confiança dos clientes.

Integração de sistemas

A maior parte das organizações executam uma multiplicidade de incompatibilidades de sistemas de dados e de comunicações standards. A organização deve integrar os seus sistemas díspares para consolidar a informação e, assim, aumentar o seu poder.

O fosso de comunicação entre sistemas desintegrados e isolados podem não só levar a um aumento de inventário e de compras, mas também levar a uma escassez crítica do material e perturbação do processos de negócio.

Integrar as plataformas e-Market e implementar novos protocolos e novos processos exige passos mais difíceis para o desenvolvimento de um programa B2B. Este processo é complexo e difícil não só porque existem muitos pontos de integração no âmbito da empresa, mas também porque a tecnologia continua a mudar e a manter novos mercados emergentes.

As empresas podem seguir uma série de estratégias para criar uma organização integrada. Três dessas estratégias são:

  • Estratégia de interligação Adhoc: uma estratégia de aplicação rápida. Conecta sistemas internos com sistemas externos ‘’’B2B’’’ exigidos.
  • Integração hub: É uma estratégia dedicada às aplicações internas da empresa e do comércio B2B externo. A integração de hubs é utilizada na ligação de interfaces personalizadas nos pontos-chave da empresa. Esta é uma forma de estratégia mais flexível e menos dispendiosa . A empresa pode manter ligações ao B2B através de um hub centralizado, usando conexões directas com B2B individual ou integração hub externa de terceiros numa única interface.
  • Hub comum:Para extrair o máximo benefício da integração das empresas deve-se definir cuidadosamente a conectividade e as exigências de cada mercado e definir prioridades para a integração entre os diferentes esforços B2B. A alternativa a esta abordagem consiste em implementar sistemas comuns, sistemas esses que, no número de integração desta estratégia deve reduzir-se a esforços no âmbito da organização comum de sistemas implementados. No entanto, a actualização para sistemas comuns é cara e demorada.

Antes de escolher qualquer estratégia de interligação, a empresa deve pesar o tempo e os custos necessários à implementação dessas estratégias, como as vantagens oferecidas pelas diferentes opções.

Redes de capacidades

As organizações não devem ter apenas redes aplicadas dentro das quatro paredes da organização, mas devem também alargar a entidades externas. As empresas devem ter uma vasta área de rede. A tecnologia como rede privada virtual (VPN) pode auxiliar as organizações na resposta a este desafio.

Gestão de conteúdo

A capacidade para actualizar e fornecer informação fiável, em tempo real, é outro desafio enfrentado pelas empresas na implementação de aplicações B2B. O conteúdo na Web deverá ser preciso e corrente. As empresas que não têm boa gestão das operações internas não são capazes de perceber todos os benefícios de e-Business. Quer esteja a empresa a vender ou a comprar, é necessário estabelecer eficácia das operações in-house.

Por exemplo, se a empresa está a vender o lado de eBusiness tem de fornecer conteúdo dinâmico personalizado, como por exemplo informações sobre produtos, preços, disponibilidade de produtos e informações. Se a organização não tem sistemas em vigor não será capaz de fornecer essa informação atempada e rigorosa. Do mesmo modo, na compra a organização pode consolidar compras de bens similares em toda a divisões e, assim, alcançar uma maior eficiência. No entanto, se estas gestão não for devidamente aplicada, as empresas não saberão o que estão a comprar e por que estão a compra ou se estão a obter o melhor preço. Se este sistema for devidamente implementado e integrado, os sistemas de ERP em toda a empresa podem desempenhar um papel muito positivo

Recuperação de backups

As organizações devem ser proactivas na sua abordagem. Devem ser criados adequados sistemas de backup e recuperação de desastres para permitir que as empresas voltem à actividade com mínima perda de tempo e de dados em caso de qualquer eventualidade.

Desafios nos negócios

Os principais desafios nos negócios são:

Gestão da Mudança

Entre os desafios das empresas, a gestão da mudança é um grande desafio, pois é fulcral saber se uma organização está a implementar um novo sistema ou desenvolver novas ideias. As empresas têm de despender uma considerável quantidade de energia e de recursos para esta gestão de mudança.

A resistência à mudança pode vir de dentro de uma organização ou de parceiros externos de uma empresa. No caso da cadeia de suprimentos a resistência pode partir da parte dos compradores, vendedores ou B2B (e-Markets).

A resistência pode ser contra o novo processo ou procedimentos a seguir, aos novos sistemas ou até mesmo ao aumento de responsabilidades. Por exemplo, o B2B tornar-se-á tão omnipresente que se torna necessário adquirir novos operadores/ trabalhadores com novas competências para cobrir as novas necessidades da empresa. Assim, terão de responder a dinâmica dos preços, apresentar uma disponibilidade de 24 X 7 X 365 , ter uma resposta mais rápida para as perguntas dos seus clientes. A aplicação de novos sistemas de tecnologia informática extra exige coordenação entre mais de que uma função de processamento e de comércio. Os funcionários terão de adquirir novas competências, como a gestão de riscos, para compreender conceitos como o controlo.

Estes desafios não podem prejudicar a importância do B2B. Formação e educação das partes envolvidas na operação B2B (e-Market) podem ajudar as organizações a ultrapassar a mudança. Embora, nalguns casos, o melhor para resolver estes problemas seja contratar novos talentos.

Muitas vezes as empresas não conseguem entender o potencial do comércio electrónico, apresentando falta de determinação e falta de entusiasmo na execução de tais pedidos. Este factor pode desempenhar um papel importante no sucesso global ou no fracasso de toda a empresa.

Modelos de negócios

Não existem modelos de negócios bem sucedidos para provar e seguir como exemplo para optar por esta estratégia. A falta de conhecimento e compreensão do meio B2B aumenta o risco de tais iniciativas. No entanto, à medida que mais e mais empresas tomam a iniciativa de procurar conhecer, isso deixa de ser um desafio. Muitas consultorias desenvolveram um conhecimento relativo a estas mudanças de negócios como resultado de fazerem parte de tais iniciativas. Na contratação de consultoria, tais empresas podem certamente ser uma fonte de orientação.

Canais de conflito

As organizações precisam de olhar para a forma como o papel das funções tradicionais de vendas está mudando. Eles precisam de avaliar o papel de todas as entidades - clientes, distribuidores, comerciantes, representantes de vendas e empresa envolvida na venda. Canal tradicional de vendas por si não é uma opção viável e não dá um valor completo. As empresas precisam de avaliar canais da Web que executam as vendas, perceptuando como estas podem proporcionar uma valorização para a empresa. Os papéis de entidades têm de ser avaliados e redefinidos para fazê-lo ajustar-se neste novo paradigma.

Desafios legais e regulamentares

São muitos os aspectos jurídicos e regulamentares envolvidos. Direitos autorais electrónicos, política de dinheiro, tarifas e privacidade. Como o e-business é um fenómeno novo, ainda há falta de coerência das normas e procedimentos. Há questões relacionadas com os impostos que devem ser cuidadosamente analisados pelas empresas.

As empresas que compram e vendem pela Internet, muitas vezes conduzem o negócio além das fronteiras nacionais de um país. Isto dá a origem a outra questão importante sobre o papel de Governo e leis de outras nações.

Desafios comportamentais

Outra barreira que pode ser difícil de superar está relacionada à atitude do consumidor. É difícil para companhias estimular clientes a modificar os seus hábitos, começando a fazer compras online. Além disso, as companhias têm uma enorme tarefa que é ganhar a confiança e a segurança dos clientes, fornecendo a garantia aos seus parceiros comerciais e clientes que a sua informação privada é segura e que não será comprometida . As iniciativas como TRUSTe liderado pela Fundação Fronteiriça Electrónica podem contribuir no sentido de ajudar as empresas a superar este desafio.

Também as companhias têm de prestar formação aos seus empregados e parceiros de negócios para adaptar-se ao novo modelo de negócios e ficar familiarizados com estas novas tecnologias. Os empregados nem sempre poderão estar dispostos a aprender novas mudanças e aprender novos modos de fazer a mesma coisa. Educação e gestão da mudança podem ser métodos eficazes no combate a este desafio.

Referências

  • CARVALHO, José Crespo de; ENCANTADO, Laura - Logística e negócio electrónico [Em linha]. Porto, SPI - Sociedade Portuguesa de Inovação, Consultadoria Empresarial e Fomento da Inovação, S.A., 2006. [Consult. 29 Abr. 2008]. Disponível em WWW: <URL:http://www.spi.pt/negocio_electronico/documentos/manuais_PDF/Manual_VI.pdf>. ISBN 978-972-8589-67-7
  • [Em linha], [Consult. 29 Abr. 2008].Disponível em WWW: <URL:http://projects.bus.lsu.edu/independent_study/vdhing1/b2b/>

Bibliografia

  • KRISHNAMURTHY, Sandeep - E-commerce management: text and cases. Australia: Thomson/South-Western, 2003. ISBN 978-0-324-15252-4.
  • CHAFFEY,Dave - E-business and e-commerce management: Financial Times Prentice Hall, 2007. ISBN 978-0-273-70752-3.
  • SCHIEDERJANS, Marc J.; CAO Qing - E-commerce operations management: World Scientific, 2002. ISBN 978-981-238-016-6.

fonte.wikipedia



Software

 

Comércio eletrônico (português brasileiro) ou comércio electrónico (português europeu) ou e-commerce, ou ainda comércio virtual, é um tipo de transação comercial feita especialmente através de um equipamento eletrônico, como, por exemplo, um computador.

Conceitua-se como o uso da comunicação eletrônica e digital, aplicada aos negócios, criando, alterando ou redefinindo valores entre organizações (B2B) ou entre estas e indivíduos (B2C), ou entre indivíduos (C2C), permeando a aquisição de bens, produtos ou serviços, terminando com a liquidação financeira por intermédio de meios de pagamento eletrônicos.

O ato de vender ou comprar pela internet é em si um bom exemplo de comércio eletrônico. O mercado mundial está absorvendo o comércio eletrônico em grande escala. Muitos ramos da economia agora estão ligadas ao comércio eletrônico.

Seus fundamentos estão baseados em segurança, criptografia, moedas e pagamentos eletrônicos. Ele ainda envolve pesquisa,desenvolvimento, marketing, propaganda, negociação, vendas e suporte.

Através de conexões eletrônicas com clientes, fornecedores e distribuidores, o comércio eletrônico incrementa eficientemente as comunicações de negócio, para expandir a participação no mercado, e manter a viabilidade de longo prazo no ambiente de negócio.

No início, a comercialização on-line era e ainda é, realizada com produtos como CDs, livros e demais produtos palpáveis e de características tangíveis. Contudo, com o avanço da tecnologia, surge uma nova tendência para a comercialização on-line. Começa a ser viabilizado a venda de serviços pela web, como é o caso dos pacotes turísticos, por exemplo. Muitas operadoras de turismo estão se preparando para abordar seus clientes dessa nova maneira.

Índice

  • 1 Histórico
  • 2 Modelo Integrado do comércio eletrônico
  • 3 Vantagens do e-commerce para empresas
  • 4 Futuro do E-Commerce
  • 5 Portugal
  • 6 Brasil
  • 7 Referências
  • 8 Ver também

Histórico

O significado de comércio eletrônico vem mudando ao longo dos últimos 30 anos. Originalmente, CE significava a facilitação de transações comerciais eletrônicas, usando tecnologias como Eletronic Data Interchange (EDI) e Eletronic Funds Transfer (EFT). Ambas foram introduzidas no final dos anos 70, permitindo que empresas mandassem documentos comerciais como ordem de compras e contas eletronicamente. O crescimento e a aceitação de cartões de créditos, caixas eletrônicos, serviços de atendimento ao cliente (SAC) no final dos anos 80 também eram formas de CE. Apesar de a internet ter se popularizado mundialmente em 94, somente após cinco anos os protocolos de segurança e a tecnologia DSL foram introduzidos, permitindo uma conexão contínua com a Internet. No final de 2000, várias empresas americanas e européias ofereceram seus serviços através da World Wide Web. Desde então, as pessoas começaram a associar à expressão ‘comércio eletrônico’ com a habilidade de adquirir facilidades através da Internet usando protocolos de segurança e serviços de pagamento eletrônico. No Brasil, o comércio eletrônico B2C surgiu em 1995, logo depois da internet comercial. Entre as empresas pioneiras nas vendas online, destaca-se Livraria Cultura, Grupo Pão de Açucar, Lojas Americanas, Magazine Luiza e Booknet, esta última foi comprada por um grupo de investidores e mudou o nome para Submarino (empresa). O crescimento no número de compradores online sempre esteve diretamente relacionado ao aumento das velocidades de conexão. Quanto mais rápida a largura de banda, maior a probabilidade das pessoas comprarem pela Internet, uma vez que a experiência de navegação fica mais agradável, mantendo as pessoas navegando por mais tempo e por mais páginas. Além disso, as lojas virtuais podem explorar funcionalidades tais como provadores virtuais, vídeos e fotos em alta definição, para aumentar a conversão de suas vendas.

Modelo Integrado do comércio eletrônico

O Modelo Integrado de Comércio Eletrônico possui várias subdivisões do ambiente do CE e da sua integração com o ambiente empresarial. Este modelo enfatiza seus aspectos, valor, benefícios estratégicos e contribuições para o sucesso das organizações:

  • Políticas e regras públicas: Estão relacionadas com os aspectos legais de regulamentação dos setores e mercados e das normas oficiais;
  • Políticas e padrões técnicos: Estão relacionados com os aspectos de padronização para a compatibilização dos componentes do ambiente técnico, políticas de tratamento e comunicação de informações;
  • Infovia Pública: É a rede formada tanto pela rede mundial Internet como pelos serviços on-line que tenham ligações com esta, sendo que a ênfase é no acesso livre e de baixo custo, e na integração entre os vários ambientes sem nenhuma restrição, incluindo desde os terminais mais simples de acesso até meios de comunicação mais sofisticados para grandes volumes de informações.
  • Aplicações e Serviços Genéricos: são aqueles oferecidos pelo ambiente, através dos seus provedores, serviços on-line e fornecedores, disponíveis a todos, tais como correio eletrônico, transferência de arquivos, salas virtuais, algoritmos e softwares de criptografia;
  • Aplicações de Comércio Eletrônico: São aquelas desenvolvidas com base nas camadas anteriores e que atendam as necessidades de uma organização ou grupo delas.

Vantagens do e-commerce para empresas

A sua rede de loja(s), negócio esta disponível 24 horas * 7 dias por semana;

Possibilidade de desconto maior no produto tendo em vista o custo de contratação de vendedores e sem repasse de comissões aos mesmos;

Você não precisa alugar uma loja física e investir em decoração, vitrines, segurança e saneamento;

Reduzida probabilidade de erros de interpretação no circuito com o cliente , e mesmo com o fornecedor;

Poupança nos custos associados com o cliente e com o fornecedor;

Baixo tempo de entregas das encomendas;

Facilidade no acesso a novos mercados e clientes, com reduzido esforço financeiro;

A vantagem competitiva das grandes empresas para as pequenas é menor. Um eficiente e atractivo portal de compras na Internet não necessita de um elevado investimento financeiro. O cliente escolhe por quem lhe dá mais confiança e melhor serviço;

Procedimentos associados as compras bastante céleres, permitindo as empresas diminuir o tempo médio de recebimento, melhorando o seu cashflow;

Facilidade processamento de dados transmitido pelo CRM, como por exemplos preferências e forma de pagamento dos clientes, assim como permite a antecipação da evolução das tendências do mercado;

Contacto permanente com todas as entidades intervenientes no processo, as interacção são mais rápidas, diminuindo os custos relacionados com a comunicação.

Conhecimento constante do perfil de clientes, seus hábitos e regularidade de consumos;

Antecipação das tendências de mercado, disponibilidade permanente de relatórios sobre os produtos mais visualizados, áreas mais navegadas;

Rapidez na divulgação de novos produtos ou promoções

Futuro do E-Commerce

O e-commerce nunca sofreu uma grande mudança, mas nos últimos anos vemos a chegada de novas tecnologias que estão dando "asas a imaginação" de muitos marketeiros de plantão, com isso temos a aparição de novas modalidades no e-commerce:

  • M-Commerce - Mobile Commerce

Comércio Eletronico Móvel está cada vez mais se tornando uma realidade. Segundo a ABI Research americana, vamos fechar 2010 com 2.4 bilhões de dólares em vendas no varejo via celular. Já existem previsões de que em 2012 o celular irá superar o PC como o principal gadget de acesso a internet . Existe a previsão de que tudo será resolvido através do celular, e as vendas no varejo não serão exceção.

  • F-Commerce - Facebook Commerce

O crescimento vertiginoso do número de usuários do Facebook despertou o interesse das empresas em estarem presentes nesse canal. É possível criar uma loja virtual dentro do Facebook usando aplicativos de ecommerce. Há vários no mercado a custos bem acessíveis. Esses aplicativos funcionam como uma vitrine de produtos dentro do Facebook. Quando alguem clica no botão comprar, é direcionado para a página do produto, na loja virtual.

  • T-Commerce - Television Commerce

Dada a presença massiva da Televisão no Brasil e os avanços do Ginga, a plataforma de Televisão Digital Interativa do SBTVD, em breve as compras poderão ser feitas durante os anúncios e inserções nos programas de TV. Uma das principais características desta forma de e-commerce é a redução do tempo entre o anúncio e uma venda, o que deverá aumentar ainda mais os números do e-commerce no país. Em 2016 o sinal de TV analógica (como conhecemos) no Brasil deve ser desligado e a maioria das TVs - hoje presentes em mais de 90% dos lares brasileiros - deverá contar com recursos de interatividade que permitirão o T-commerce.

  • S-Commerce - Social Commerce

Redes sociais são a verdadeira febre do momento na internet. E como todo bom "marketeiro" não pode deixar essa possibilidade passar, grandes redes de e-commerce já começam a usá-las como ferramenta de marketing viral, atingindo diretamente seus clientes. As empresas estão buscando usar as redes sociais como ferramenta de atendimento, uma vez que a voz dos consumidoras ganha cada vez mais força com as redes sociais[1]. Consumidores insatisfeitos já conseguem arranhar a imagem de empresas que não resolveram seu problema, compartilhando suas experiências negativas com suas redes de amigos e parentes e até mesmo postando vídeos com depoimentos.

  • Compra coletiva

É quando um grupo de consumidores se reúnem e usam uma velha regra de ouro, não há melhor tatica que agrupar varias pessoas para PeixeUrbano e ClickON] sendo que além deles, existem buscadores que indexam ofertas de sites de compra coletiva diariamente, como Bigudinho, Dia de Feira, NossoDesconto e SaveME.

  • Lojas Virtuais Privadas

Isso ainda está "engatinhando" no Brasil, mas teve um grande crescimento no EUA em 2009. Quando uma grande loja virtual decide queimar seus estoques, está precisa fazer de uma maneira mais privada criando sites fechados onde somente um grupo seleto de usuários de seu site aberto tem a possibilidade de acessar.

  • Produtos Virtuais

Hoje já uma realidade. Grandes lojas como Saraiva e Submarino já oferecem produtos virtuais como filmes, jogos, softwares, livros entre outros. Cada vez mais se torna uma forma prática de ecommerce, tanto para o comprador (este não se preocupa em perder um livro, ou estragar um DVD, pois tudo é digital e pode ser feito download a qualquer momento após a compra) como para o venderdor (este não precisa de estoque por exemplo). E com a chegada do Kindle e principalemente do IPad vemos que esse será um dos pontos fortes do e-commerce nos próximos anos.

  • Tecnologias Alternativas de Pagamento

O e-commerce não pode se restringir apenas em boletos bancários ou cartões de crédito. Quantos mais alternativas de pagamento melhor. Temos o caso do PayPal que é uma forma segura e cada vez mais utilizada como opção de pagamento. Novas tecnologias podem surgir e com isso aumentar mais ainda a abrangência do e-commerce.

Portugal

No final de 2010, foram efectuadas compras de bens e serviços no valor de 3,2 mil milhões de euros por dois milhões de internautas portugueses. O cabaz de compras consistia na sua maioria de livros, discos, informática e telemóveis, vestuário e alimentação.[2]

Brasil

Mais de 21 milhões de pessoas acessaram uma loja online em 2009, um número de expressão, mesmo levando em conta que dos 21 somente 12 milhões efetuaram uma compra (muitos ainda utilizam sites de loja para fazerem pesquisas de preços)[3]. E por que isso? De acordo com uma pesquisa feita pelo Datapopular mostrou que 61% dos internautas de baixa renda costumam conferir os produtos em lojas físicas antes de fechar a transação pela internet, ou tem medo de cometerem um erro no momento da compra e não encontram garantias nos varejistas virtuais atualmente, que façam eles transitarem da compra em loja física para a virtual. A insegurança ainda é um obstáculo que o e-commerce esbarra quando se trata do brasileiro de menor poder aquisitivo. Mesmo assim o Brasil é o segundo país com maior índice de preocupação com transações financeiras on-line, ficando atrás apenas da Alemanha, e a frente de grandes potências econômicas como o USA em estudo foi feito pela Unisys. Em uma escala de 0 a 300, onde 0 representa a não preocupação com a segurança e 300 preocupação elevada o Brasil obteve 146 pontos (Alemanha ficou com 156 e o México, terceiro lugar, com 141) .

No final de 2010, houve um recorde na vendas de produtos online, mais de 35% de crescimento em relação ao ano anterior.

fonte.wikipedia

Software

 
Marketing
Composto
Marketing | Marketing mix | Produto | Preço | Promoção | Comunicação | Distribuição
Promoção
Propaganda (comunicação) | Publicidade | Campanha Publicitária | Criação (publicidade) | Relações públicas | Marketing direto | Buzz marketing | E-mail marketing | Marketing viral | Marketing de Relacionamento | Marketing de guerrilha | Marketing de massa | Trade Marketing
Mídias
Televisão | Rádio | Jornal | Revista | Internet
Produto
Produto | Design de produto | Metodologia de projeto | Estratégias de produto
Estratégia e conceitos
Estratégia | Estratégia competitiva | Estratégias competitivas genéricas | Estratégias de marketing | Planejamento estratégico | Plano de marketing | Cultura de Massa | Marketing de serviços | Marketing político | Mercado | Mídia | Pesquisa de mercado | Veículos | Posicionamento (marketing) | Segmentação de mercado | Telemarketing | Valor | Vantagem competitiva | Variáveis Mercadológicas
Tecnologias
Animação | Hipermídia | Podcasting | Radiodifusão | Telecomunicações
Outros verbetes
Ver Categoria:Marketing

Marketing de relacionamento ou Marketing relacional corresponde ao trabalho de marketing voltado para o relacionamento com clientes e fornecedores.

Índice

  • 1 Definição
    • 1.1 Características
  • 2 Utilização
    • 2.1 Criação de estratégias
    • 2.2 Busca de vantagens competitivas
    • 2.3 Medição de satisfação do cliente
    • 2.4 Emprego, cenários e outras explicações
  • 3 Ligações internas
  • 4 Ver também

Definição

De acordo com McKenna (1991), marketing de relacionamento ou pós-marketing significa construir e sustentar a infra-estrutura dos relacionamentos de clientes. É a integração dos clientes com a empresa, desde o projeto, desenvolvimento de processos industriais e de vendas.

Vavra (1993) define o marketing de relacionamento como o processo de garantir satisfação contínua e reforço aos indivíduos ou organizações que são clientes atuais ou que já foram clientes. Os clientes devem ser identificados, reconhecidos, comunicados, aditados em relação à satisfação e respondidos.

Segundo o livro Mercator XXI (11ª Edição), o marketing relacional tem o seu foco nos clientes já existentes e não na angariação de novos clientes e para que uma empresa possa apostar no marketing relacional e conseguir fidelizar os seus clientes, deverá ter em atenção alguns pontos, nomeadamente: conhecer bem o cliente, saber comunicar e escutar as suas necessidades e reconhecer a sua fidelidade. Existem diversas ferramentas que podem ser utilizadas para atingir os objetivos propostos pelo marketing relacional, nomeadamente a criação de bases de dados, a criação de uma página na internet com um fórum, a realização de inquéritos para medir a satisfação do cliente e os seus gostos e sugestões, a existência de um sistema que premie a fidelidade dos clientes ou mesmo a realização de eventos centrados nos clientes.

Características

As principais características são:

  • Interatividade: o cliente toma quando quer a iniciativa do contato, como receptor e emissor das comunicações;
  • Personalização: todas as ações são direcionadas e personalizadas. As empresas podem e devem dirigir mensagens distintas a cada cliente, adequadas às suas circunstâncias e historial.
  • Memorização: todas as ações deverão ser registadas em memória contendo a identidade, os dados, as características, preferências e detalhes das interacções mantidas com os clientes.
  • Receptividade: as empresas devem passar a falar menos e a escutar mais. Além do mais deverão permitir que seja o cliente quem decida se quer ou não manter uma relação, quem defina a forma de comunicação e se a quer manter ou alterá-la.
  • Orientação para o cliente: as empresas deverão acabar com os product managers e passar para os consumer managers, centrando-se assim mais no consumidor, suas necessidades e todas as formas para que sejam satisfeitas.
  • Praticar o BtoB e o BtoC: o marketing relacional não se deve centrar apenas no Business to Consumer. Deverá também apostar no Business to Business por forma a desenvolver e explorar todas as formas de potenciação do seu negócio.

Utilização

Pode-se dizer que nos dias de hoje, o marketing relacional é prática comum da maioria das empresas, pois ao desenvolvimento de estratégias de retenção de clientes estão associadas algumas vantagens para as empresas, nomeadamente: aumento da frequência das relações negociais, aumento do volume de negócios, redução de custos devido à diminuição da rotação dos clientes e clientes inativos podem novamente ser clientes ativos.

Com o passar dos anos, o marketing de relacionamento tem vindo a ter uma maior importância junto das empresas porque com os cortes de custos verificados, as empresas conseguem através desta área do marketing, medir resultados e perceberem o seu impacto direto nas vendas. Verifique a importância do marketing de relacionamento com mais abrangência nas sessões seguintes.

Criação de estratégias

De maneira geral, consiste em uma estratégia de negócios que visa a construir pró-ativamente relacionamentos duradouros entre a organização e seus clientes, contribuindo para o aumento do desempenho desta e para resultados sustentáveis. O processo de marketing de relacionamento deve se iniciar com a escolha certa do cliente, a identificação de suas necessidades, a definição dos serviços prestados e agregados, a busca da melhor relação custo/benefício e ter funcionários motivados e capacitados a atender estes clientes adequadamente. O contexto de administrar o relacionamento com o cliente serve para que a empresa adquira vantagem competitiva e se destaque perante a concorrência. O objetivo maior torna-se manter o cliente através da confiança, credibilidade e a sensação de segurança transmitida pela organização.

Busca de vantagens competitivas

Drucker (1999) elegeu algumas regras fundamentais para a utilização do marketing de relacionamento na busca por vantagem competitiva:

  • O relacionamento com o cliente é de responsabilidade da empresa. Qualquer reclamação ou conflito por parte do cliente é provocado por uma falha empresarial.
  • A empresa deve perguntar-se constantemente o que pode ser feito para facilitar e melhorar a vida de seus clientes.

Em complemento, Kanter (2001) enfatiza os seguintes aspectos no relacionamento com o cliente:

  • Conhecer profundamente o cliente.
  • Tornar o cliente conhecido por todos os funcionários da empresa. Ele não deve aguardar para que alguém o identifique e solucione seus problemas adequadamente.
  • Transformar o cliente em sócio de um clube exclusivo, ou seja, proporcionar atividades e disponibilizar recursos que só os clientes da empresa têm acesso.

Alguns estudiosos acreditam que a mensuração da satisfação dos clientes pode ser o diferencial de empresas bem-sucedidas em relação a outras. A empresa precisa ter essa mensuração externa por uma ou todas as razões seguintes:

  • Satisfação de clientes é frequentemente equiparada a qualidade.
  • O compromisso por um programa de satisfação de clientes demonstra liderança em uma categoria de negócios.
  • Mensurações internas de satisfação de clientes podem ser inadequadas ou impróprias.
  • Ouvindo os clientes, as empresas podem se beneficiar e passar a ser voz ativa no mercado.
  • Muitos clientes não reclamam abertamente porque podem achar que nada vai ser feito.
  • Um programa de satisfação de clientes é uma poderosa ferramenta para estimular a melhoria dos produtos ou serviços.
  • Os concorrentes podem já ter adotado programas de satisfação de clientes bem-sucedidos (VAVRA et al, 1993, p.170).

Medição de satisfação do cliente

De acordo com Vavra (1993, p.255) os relacionamentos bem-sucedidos com clientes exigem prática constante e intensas técnicas de pós-marketing. Um dos esforços mais evidentes é a coleta de informações a respeito dos clientes, também é sugerida como atividade de pós-marketing a elaboração de um programa de mensuração da satisfação do cliente. Tal programa fornece um feedback do cliente referente a qualidade dos produtos ou serviços e sugere caminhos para futuras mudanças e melhorias.

Para Vavra (1993), toda empresa que aceita o desafio de pós-marketing deve aplicar-se a oferecer satisfação através de seus produtos e serviços, o que requer conhecimento a respeito das expectativas dos clientes, outrossim, a maioria dos programas de mensuração de satisfação, além de apontar níveis de satisfação, fornece conhecimento a respeito das expectativas dos clientes. Tais programas auxiliam a empresa na priorização de tais expectativas e mudanças que essas possam sofrer, além de permitirem que se conheça o valor das necessidades existentes (VAVRA, 1993, p.165).

A TARP (Technical Assistance Research Programs Institute, 1986) apud Vavra (1993, p.169) estima que apenas 01 em 27 clientes insatisfeitos voltará a fazer negócio com uma empresa por iniciativa própria. Existe ainda uma evidência muito forte a respeito do valor de contribuição para o lucro da clientela satisfeita. Estudos mostram que o desempenho financeiro da empresa está relacionado à qualidade percebida dos bens ou serviços de uma empresa.

O marketing relacional tem as suas origens no marketing direto e implica por parte da empresa, um forte conhecimento dos gostos dos seus clientes, quer sejam produtos, marcas ou serviços. O seu desenvolvimento permite uma evolução da empresa, uma vez que para satisfazer os seus clientes, tem que ser mais pró-ativa, escutando as opiniões dos clientes e os seus desejos. Ao fazê-lo cria espaço para o desenvolvimento de novos produtos ou serviços personalizados.

Emprego, cenários e outras explicações

As empresas de comércio tradicional e outras, cada vez mais adotam o marketing relacional como uma forma de desenvolverem a sua estratégia de marketing, pois é no conhecimento individual dos gostos do cliente e na percepção da sua qualidade / satisfação percebida, que conseguem manter os clientes “da casa” e angariar novos clientes pelo “passa palavra”.

O marketing relacional é um projeto de longo prazo e com uma grande interatividade entre empresa e cliente. Uma empresa pode desenvolver a sua estratégia de marketing relacional recorrendo a alguns meios de comunicação (televisão interativa, mensagens SMS, Internet, telemarketing e direct mail). Para que possa obter melhores resultados a empresa deve conjugar os vários meios de comunicação e não deve apostar apenas num único.

A Internet assume um papel relevante no marketing relacional, devido à interatividade que proporciona entre o consumidor e a empresa, permitindo um conhecimento mais detalhado dos gostos dos clientes. O envio de mails e/ou newsletters tem aumentado significativamente, tendo em conta que cerca de 48,3% das habitações situadas no território nacional português já possuem ligação à internet. Com o desenvolvimento das tecnologias de informação a grande maioria dos consumidores passou a estar mais informada e passaram a ser mais exigentes. Os consumidores optam pela qualidade em detrimento da sua fidelidade a uma empresa ou marca, e é neste contexto que o marketing relacional é visto como uma estratégia importante a ser considerada.

Para que uma empresa consiga implementar uma estratégia de marketing relacional eficaz deve seguir o método IDIC desenvolvido por Don Peppers e Martha Rogers na década de 90. O método IDIC significa: Identificar, Diferenciar, Interagir e Customizar, sempre orientado para o cliente.

Segundo textos contidos no Mercator XXI, a principal ideia no marketing one to one é que as empresas têm que conhecer os clientes, saber como querem ser tratados e tratá-los de forma diferenciada. Individualmente os clientes não são tratados de uma mesma forma, mas a empresa considera as suas opiniões e melhora o relacionamento para com esses clientes.

Numa estratégia de marketing one to one, as empresas têm que proceder a algumas alterações internas de forma a rentabilizarem o investimento, naquele que é um dos seus objetivos principais, a fidelização de clientes. As áreas que poderão necessitar de reestruturação para fazer face a esse objectivo poderão ser a produção, a logística e distribuição e mesmo o planeamento.

Nos últimos anos temos vindo a assistir a um maior esforço das empresas no que diz respeito ao estabelecimento de relações mais duradouras com os seus clientes, devido ao desenvolvimento de práticas de marketing relacional. Este desenvolvimento tem sido motivado pelo fato de cada vez mais a rotação dos clientes ser elevada e também ao aumento de produtos substitutos e/ou concorrentes. Cada vez mais as empresas devem efetuar esforços para manter clientes, pois é mais econômica a sua manutenção do que a conquista de novos clientes ou mesmo a recuperação de clientes perdidos.

Já em 1990, Reicheld y Sasser, demonstraram que os ganhos obtidos pelas empresas na retenção de clientes são significativos, e que na maioria dos casos estudados, os clientes antigos superavam os clientes novos em termos de volume de negócios. Hoje em dia as empresas devem estar despertas para esta situação, pois os factores que propiciam a rotação de clientes têm vindo a aumentar, nomeadamente: elevada oferta de produtos similares / substitutos, o número elevado de publicidade efetuada, as alterações nos canais de distribuição, o elevado número de superfícies comerciais, a existência de produtos de marca branca que alcançam quotas de mercado significativas e a gestão do orçamento familiar (alguns produtos são preteridos – apenas é adquirido o que realmente é necessário).

O marketing relacional deve ter como sua principal preocupação a manutenção e aprofundamento de uma relação duradoura com os clientes (Berry L., 1995; DuPont R., 1998). Assim sendo, o marketing relacional deve ser encarado como uma relação de longo prazo, tendo como objectivo a retenção de clientes e a sua beneficiação, assente na confiança e compromisso tendo como foco a emoção e a intimidade com o cliente. O cliente deve ter noção de que existe valor acrescentado ao efetuar a aquisição de bens ou serviços. A noção de valor acrescentado de um bem ou serviço tem sido alcançada mais rapidamente pelo desenvolvimento das tecnologias de informação. Atualmente as empresas investem em programas informáticos que lhe permitem manter fichas atualizadas de clientes e saber as suas preferências (CRM é uma das possibilidades).

Tendo como bases este pressuposto, é perceptível o porquê da alteração de estratégias de marketing, para novas estratégias em que o mais importante é a manutenção de relações comerciais sólidas e duradouras com os clientes, para que seja possível o desenvolvimento do negócio e a sua sustentabilidade. A manutenção de clientes deve ser encarada no longo prazo.

Ligações internas

Customer relationship management

Ver também

  • B2B
  • B2C
  • B2E
  • Branding
  • Buzz marketing
  • E-Commerce
  • Estratégia
  • Estratégia competitiva
  • Estratégias de marketing
  • Estratégias competitivas genéricas
  • Marca
  • Marketing cinematográfico
  • Marketing de Internet
  • Marketing de rede
  • Marketing de guerrilha
  • Marketing de serviços
  • Marketing digital
  • Marketing direto
  • Marketing Educacional
  • marketing promocional
  • Marketing Esportivo
  • Marketing industrial
  • Marketing infantil
  • Marketing político
  • Marketing de serviços
  • Métricas de Marketing
  • Pesquisa de mercado
  • Planejamento estratégico
  • Plano de marketing
  • Posicionamento
  • Segmento de mercado

fonte.wikipedia

Software

 

Blogs Corporativos podem ser traduzidos em: uso de blogs dentro do cotidiano das empresas.

O Blog é uma ferramenta fácil de criar e atualizar, é possível criar um blog com pouco (ou nenhum) conhecimento de linguagens de programação web. Além disso, o Blog possui propriedades e atributos que se encaixam perfeitamente nas necessidades de qualquer negócio: a comunicação interna ou externa simples, descomplicada e altamente interativa e instantânea.

Sua estrutura de fácil leitura e a abertura de espaço para envio de comentários sobre cada artigo ou texto criado no seu conteúdo, possibilita ganhos reais em tempo, sinergia entre equipes ou entre partes, e otimização de processos operacionais de qualquer organização.

O uso nas empresas podem ocorrer de duas formas diferentes: A própria criação e uso do blog no dia-a-dia dos seus negócios, e o monitoramento do conteúdo dos blogs já existentes na blogosfera em busca de informações relevantes sobre o mercado e suas tendências.

Índice

  • 1 Criação de blogs corporativos
  • 2 Monitoração da blogosfera
  • 3 Ver também
  • 4 Referências

Criação de blogs corporativos

O Blog dentro de empresas poderá ter como público-alvo uma audiência externa (mercado, clientes, parceiros) e uma audiência interna (colaboradores). Dentre as possíveis finalidades que o Blog pode assumir em uma empresa destacamos:

  • Blogs para comunicação de marketing de campanhas ou relações públicas - Público Externo
  • Blogs para comunicação interna de equipes, projetos, notícias, entre outras - Público Interno
  • Blogs para externalização de conhecimento tácito em projetos de Gestão do Conhecimento - Público Interno

Monitoração da blogosfera

A blogosfera é composta de dezenas de milhares de blogs, e a grande maioria são diários virtuais que exprimem sentimentos, percepções, angústias, preocupações e alegrias de pessoas das mais diferentes classes sociais, raças, religiões e localidades.

Por isso é importante monitorar a blogosfera e ficar de olho naquilo que os seus clientes ou mesmo o mercado andam falando sobre a sua marca, sua empresa, seus produtos ou serviços. Ou ainda, você poderia acompanhar tendências, aprender novos conceitos ou mesmo captar idéias.

fonte.wikipedia

Software

 

Inteligência empresarial (em inglês Business Intelligence), refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios.

Índice

  • 1 Processo Empresarial
  • 2 Tecnologia de BI
  • 3 História
    • 3.1 Desenhando e Implementando BI
  • 4 BI nas redes sociais
  • 5 Ver também

Processo Empresarial

A Inteligência Empresarial, ou Business Intelligence, é um termo do Gartner Group. O conceito surgiu na década de 80 e descreve as habilidades das corporações para aceder a dados e explorar informações (normalmente contidas em um Data Warehouse/Data Mart), analisando-as e desenvolvendo percepções e entendimentos a seu respeito, o que lhes permite incrementar e tornar mais pautada em informações a tomada de decisão (JFF).

As organizações tipicamente recolhem informações com a finalidade de avaliar o ambiente empresarial, completando estas informações com pesquisas de marketing, industriais e de mercado, além de análises competitivas.

Organizações competitivas acumulam "inteligência" à medida que ganham sustentação na sua vantagem competitiva, podendo considerar tal inteligência como o aspecto central para competir em alguns mercados.

Geralmente, os coletores de BI obtêm as fontes primárias de informação dentro das suas empresas. Cada fonte ajuda quem tem que decidir a entender como o poderá fazer da forma mais correta possível.

As fontes secundárias de informações incluem as necessidades do consumidor, processo de decisão do cliente, pressões competitivas, condições industriais relevantes, aspectos econômicos e tecnológicos e tendências culturais.

Cada sistema de BI determina uma meta específica, tendo por base o objetivo organizacional ou a visão da empresa, existindo em ambos objetivos, sejam eles de longo ou curto prazo.

Business Intelligence (BI) pode ser traduzido como inteligência de negócios, ou inteligência empresarial. Isto significa que é um método que visa ajudar as empresas a tomar as decisões inteligentes, mediante dados e informações recolhidas pelos diversos sistemas de informação. Sendo assim, BI é uma tecnologia que permite às empresas transformar dados guardados nos seus sistemas em Informação qualitativa e importante para a tomada de decisão. Há uma forte tendência de que os produtos que compõem o sistema de BI de uma empresa passem, isoladamente, a prover funções extras que auxiliem na tomada de decisões. Por exemplo, todos os sistemas que funcionam numa perspectiva de organização da informação. Sendo assim temos: ERP – Enterprise Resource Planning; CRM – Customer Relationship Manager.

Segundo Brent Frei, fundador da Onyx Software, “Customer Relationship Management (CRM) é um conjunto de processos e tecnologias que geram relacionamentos com clientes efectivos e potenciais e com parceiros de negócios através do marketing, das vendas e dos serviços, independentemente do canal de comunicação”.

Ou seja, pode ser considerado como uma estratégia de gestão de negócios através da gestão dos relacionamentos com os clientes tendo em consideração o aumento do lucro e das vendas da empresa. O objetivo principal é claramente uniformizar processos que permitam o acesso à informação como forma de melhorar os negócios e o Marketing Relacional da empresa através do uso da tecnologia.

A globalização e a evolução da TI têm mudado radicalmente a forma como as empresas e os seus consumidores se relacionam. Os consumidores têm um leque de opções de produtos e serviços que há alguns anos não era possível. As TI permitem oferecer qualidade a um preço competitivo daí o CRM ser fundamental no estabelecimento das relações e na fidelização dos clientes. Hoje, é importante rentabilizar a máxima LTV (Lifetime value) de cada cliente. Podemos classificar da seguinte forma os clientes:

  1. CMV (Clientes mais valiosos) para os quais devemos utilizar uma estratégia de retenção, trabalhando em programas de reconhecimento e na possibilidade de uso de canais de comunicação exclusivos recompensando a preferência dos clientes e o volume de negócios por eles submetido na nossa empresa;
  2. CMP (Clientes de maior potencial) para os quais é necessário desenvolver esses clientes através de incentivos. O importante é transformar estes clientes em CMV. Encontrar estratégias para os “habituar” a trabalhar com os nossos produtos;
  3. BZ (Below Zero) que representam valor negativo para a organização;
  4. Clientes Intermédios mas que são lucrativos, porém sem grande expressão.

O potencial de uma ferramenta de CRM revela-se na esquematização dos diversos dados disponíveis de forma a criar informação valiosa para utilizar-se em prol da empresa e das suas relações comerciais. Teremos uma informação com maior qualidade, fundamental para a tomada de decisão e para a gestão dos clientes.

Portanto para uma organização, os benefícios com a implementação de um CRM passa muito pelo valor que vai criar na empresa. Irá facilitar não só a identificação dos clientes – criando bases de informações relativas aos clientes de acordo com o seu perfil – como irá facilitar a segmentação dos mesmos contribuindo para o desenvolvimento dos diversos processos de fidelização/retenção de clientes.

Tecnologia de BI

Alguns observadores consideram que o processo de BI realça os dados dentro da informação e também dentro do conhecimento. Pessoas envolvidas em processos de BI podem usar software ou outras tecnologias para obter, guardar, analisar e prover acesso aos dados. O software “cura” o desempenho do gerenciamento do negócio e contribui no objetivo de tomar as decisões melhores, mais atuais e relevantes, com as informações acessíveis sempre que necessário. Algumas pessoas utilizam o termo "BI" intercambiando-o com "livros de reunião" ou "sistemas de informações executivas", de acordo com a informação que cada um contém. É nesse sentido, que cada um pode considerar um sistema de BI como um sistema de suporte para tomada de decisão (decision-support system).

História

Uma referência anterior a inteligência, mas não relacionada aos negócios, ocorreu em Sun Tzu - A Arte da Guerra. Sun Tzu fala em seu livro que para suceder na guerra, a pessoa deve deter todo o conhecimento de suas fraquezas e virtudes, além de todo o conhecimento das fraquezas e virtudes do inimigo. A falta deste conhecimento pode resultar na derrota.

Uma certa escola traça paralelos entre as disputas nos negócios com as guerras:

  • coleta de informações;
  • discernimento de testes padrão e o significado dos dados (gerando informação);
  • respondendo à informação resultante.

Desenhando e Implementando BI

Quando é implementado um programa de BI deve-se relacionar as questões e suas possíveis decisões, tais como:

  • Questões de alinhamento de metas: é o primeiro passo para determinar propostas de curto e médio prazos do programa.
  • Questões de base: coleta de informações de competência atual e suas necessidades.
  • Custos e Riscos: as consequências financeiras da nova iniciativa de BI devem ser estimadas.
  • Cliente e "stakeholder": determina quem serão os beneficiados da iniciativa e quem pagará por ela.
  • Métricas relacionadas: estes requerimentos de informações devem ser operacionalizadas com clareza e definidas por parâmetros métricos.
  • Mensuração Metodológica: deve ser estabelecido um método ou procedimento para determinar a melhor ou aceitável maneira de medir os requerimentos métricos.
  • Resultados relacionados: alguém deve ser o monitor do programa de BI para assegurar que os objetivos estão ocorrendo. Ajustes no programa podem ser necessários. O programa deve ser testado pela eficácia, rentabilidade e validade.

BI nas redes sociais

Com o crescimento exponencial do uso das redes sociais por grandes corporações nas suas estratégias de negócios, o BI também precisou se reinventar. Várias empresas estão desenvolvendo softwares com essas características. A consultoria XYZ focada no planejamento estratégico em redes sociais fez joint venture com a ABC para o lançamento do Bis, Business Intelligence For Social Media. O sistema permite empresas de qualquer mercado ter à disposição o seu histórico de interações e relacionamento na Internet.


fonte.wikipedia

Software

 

Os sistemas de CRM.. são aplicativos de informação desenvolvidos com o objetivo de auxiliar na gestão do relacionamento com o cliente. Concetualmente, dá-se o nome de CRM à gestão deste relacionamento, e de sistemas de CRM aos sistemas empregados para a gestão deste relacionamento.

Customer Relationship Management


Origem dos sistemas de CRM

A origem dos sistemas de CRM remonta o início dos sistemas de informação voltados exclusivamente a vendas, com os primeiros sistemas de vendas ou gestão de vendas, e mais tarde sendo aperfeiçoados para gestão de clientes e do relacionamento deles com as empresas.

Com a melhora da capacidade de processamento e armazenamento dos equipamentos, somada a necessidades criadas pela concorrência cada vez maior no mercado, os sistemas foram sendo aperfeiçoados, tornando-se efetivamente sistemas com suporte a aplicações de CRM e gestão de clientes e do relacionamento destes com a empresa.

fonte.wikipedia

Software

 

Customer Relationship Management (CRM) é uma expressão em inglês que pode ser traduzida para a língua portuguesa como Gestão de Relacionamento com o Cliente (Gestão de Relação com o Cliente, em Portugal). Foi criada para definir toda uma classe de ferramentas que automatizam as funções de contacto com o cliente, essas ferramentas compreendem sistemas informatizados e fundamentalmente uma mudança de atitude corporativa, que objetiva ajudar as companhias a criar e manter um bom relacionamento com seus clientes armazenando e inter-relacionando de forma inteligente, informações sobre suas atividades e interacções com a empresa.

Índice

  • 1 Definição
  • 2 CRM e o Ensino
  • 3 CRM e a Informática
  • 4 Fontes
  • 5 Ver também
  • 6 Ligações externas

Definição

O Customer Relationship Management é uma abordagem que coloca o cliente no centro dos processos do negócio, sendo desenhado para perceber e antecipar as necessidades dos clientes atuais e potenciais, de forma a procurar supri-las da melhor forma. Trata-se, sem dúvida, de uma estratégia de negócio, em primeira linha, que posteriormente se consubstancia em soluções tecnológicas. É assim um sistema integrado de gestão com foco no cliente, constituído por um conjunto de procedimentos/processos organizados e integrados num modelo de gestão de negócios. Os softwares que auxiliam e apoiam esta gestão são normalmente denominados sistemas de CRM.

Os processos de gestão que assentam em CRMs estão, sem dúvida, na linha da frente em termos estratégicos não apenas em termos de marketing, mas também, a médio prazo, ao nível econômico-financeiro. Com efeito, empresas que conhecem profundamente os seus clientes, o que precisam, em que o perfil de consumidor se enquadra, conseguem criar respostas personalizadas, antecipando as suas vontades e respondendo de forma precisa aos seus desejos atuais.

A tecnologia responderá apenas à estratégia da empresa a este nível, auxiliando na captura de dados acerca do cliente e fontes externas e na consolidação de uma data warehouse central, de modo a tornar a estratégia global de CRM mais inteligente. Adicionalmente, integra o marketing e as tecnologias de informação já existentes, de forma a dotar a empresa de meios eficazes e integrados de atender, reconhecendo e cuidando do cliente em tempo real. As aplicações de CRM transformam os dados recolhidos em informação que, quando disseminada permite a identificação do cliente e a compreensão do seu perfil.

As plataformas de CRM alicerçam-se em processos centrados no cliente, disseminados por toda a organização. Verifica-se uma utilização exaustiva de informação relacionada com o cliente, integrando as áreas de marketing, vendas e serviços, verificando-se a criação de valor para o cliente. Antes de implementar, importa perceber qual o modelo de relacionamento com o cliente que a empresa pretende adotar, sendo necessário, várias vezes, redesenhar os processos de atendimento. Aqui importa perceber dimensões como:

  1. Como será feita a abordagem ao cliente?
  2. Que procedimentos ou eventos devem ser gerados?
  3. Qual o plano de comunicação a adotar?

De forma a responder a estes desafios, procede-se ao levantamento rigoroso dos processos existentes e sua documentação, de montante a jusante, podendo ser necessário redesenhar ou levar apenas a um reenquadramento dos mesmos e eventualmente a adição de mais-valias, pelo fato de passar a existir suporte de tecnologia de informação orientada para o cliente.

A partir daqui é selecionada a solução de informação e consequente implementação. A seleção da solução de informação é baseada nas fases anteriores, sendo validadas as características das soluções disponíveis, determinada pelo modelo de relacionamento a seguir no futuro.

Ao nível da implementação do sistema, os passos passam por configurar o modelo de relacionamento na tecnologia adquirida e implementar a estratégia de relacionamento com o cliente, incluindo um conjunto de ferramentas de apoio, como telemarketing, canais virtuais de relacionamento, terminais de ponto de venda. Importa nesta altura ter em conta os aspectos que contribuem para o sucesso desta fase:

  1. Foco nos processos, não na tecnologia. As TIC são apenas um meio para alcançar os objetivos;
  2. Envolvimento, comprometimento e acompanhamento da gestão de topo;
  3. Seleção da tecnologia de acordo com o negócio;
  4. A Tecnologia deve preencher necessidades específicas do negócio;
  5. Perceber como as funcionalidades são realizadas e compreender a arquitetura global do sistema;
  6. Apoio e formação aos utilizadores;
  7. Competência multidisciplinar da equipe de projeto;
  8. Estabelecimento de etapas e prioridades;
  9. Consistência da integração do sistema.

Em termos tecnológicos a plataforma apresenta as seguintes características:

  1. Vendas – SFA - Sales Force Automation: Prospecção, previsões; Modo off-line, sincronização no sistema;
  2. Serviço ao cliente - Registo e acompanhamento de questões, problemas, reclamações, sugestões, pedidos de informação; Acompanhamento dos assuntos, agendamento, gestão do conhecimento;
  3. Marketing - Data warehouse e data mining facilitam análise, permitindo descobrir relações não antecipadas e padrões de consumo e comportamento. São, como referido, identificados perfis de consumo, auxiliando na tomada de decisão;
  4. Coerência e interoperacionalidade - Base de dados de clientes e eventos de negócio que todas as aplicações da plataforma utilizam e mantêm atualizada. O sistema de workflow que permite o fluir dos processos dentro e entre módulos;
  5. Melhor gestão dos recursos existentes - Através do seu uso poupa-se em tempo de recursos humanos e de máquinas que até então estariam a ser utilizados para processamento de dados manual e automaticamente. E ainda na passagem de informação que deixa de ser necessária visto estar constantemente disponível e atualizada.

Através destes sistemas são passíveis de observação os seguintes processos:

  1. Planejamento - Verifica-se um plano de atividades rigoroso, com identificação de todos os pontos críticos de relacionamento e a estrutura do fluxo de trabalho; há um levantamento de pontos de automação.
  2. Marketing relacional - Identificar, segmentar, interagir, configurar através de programas de fidelização, com identificação clara e construção de perfis do consumidor.
  3. Produtos e serviços de extrema qualidade que a concorrência a nível global obriga. Com efeito, a tolerância ao erro, à falta de qualidade e à ineficiência é cada vez menor, verificando-se uma ênfase na gestão do conhecimento.
  4. Solução de eCRM, onde são automatizadas tarefas rotineiras, estruturação do relacionamento com o cliente, processamento da informação transacional, entre outras.
  5. Portal de e-commerce atrativo, bem estruturado e eficiente promove a divulgação dos produtos e serviços e a obtenção e partilha de informação. É um excelente meio para a realização de sondagens e estatísticas – sondagens de consumo e estudos de mercado. Este portal quando atrativo e eficiente promove as transações comerciais, deve ter boa capacidade de processamento de informação, ser Intuitivo e fácil de navegar. Adicionalmente, deve ser permanentemente atualizado, seguro, com políticas de privacidade e confidencialidade bem visíveis.
  6. Acrescentar valor ao relacionamento - conhecimento obtido deve orientar o relacionamento. Assim quem compra deve receber exatamente o que deseja comprar e a informação que realmente lhe interessa.
  7. Integração de outros canais de comunicação - telefone, fax, contato pessoal, carta, etc. Os dados recolhidos por este meio devem ser inseridos numa base de dados global.
  8. Detecção de Oportunidades de Negócio - através da análise dos dados levando assim ao reconhecimento de padrões de comportamento econômico e de relacionamento, o que por sua vez poderá sugerir eventuais formas de criar novos negócios.

O seu objetivo principal é auxiliar as organizações a angariar e fidelizar clientes ou prospectos, fidelizar clientes atuais na busca de atingir a sua satisfação total, através do melhor entendimento das suas necessidades e expectativas e formação de uma visão global dos ambientes de marketing.

O CRM abrange, na generalidade, três grandes áreas:

  • Automatização da gestão de marketing
  • Automatização da gestão comercial, dos canais e da força de vendas
  • Gestão dos serviços ao cliente

Os processos e sistemas de gestão de relacionamento com o cliente permitem que se tenha controle e conhecimento das informações sobre os clientes de maneira integrada, principalmente através do acompanhamento e registro de todas as interações com o cliente, que podem ser consultadas e comunicadas a diversas partes da empresa que necessitem desta informação para guiar as tomadas de decisões.

Uma das atividades da Gestão do Relacionamento com o cliente implica registrar os contatos por si realizados, de forma centralizada. Os registros não dependem do canal de comunicação que o cliente utilizou (voz, fax, e-mail, chat, SMS, MMS etc) e servem para que se tenham informações úteis e catalogáveis sobre os clientes. Qualquer informação relevante para as tomadas de decisões podem ser registradas, analisadas periodicamente, de forma a produzir relatórios de gestão.

  • CRM Operacional: é a aplicação da tecnologia de informação para melhorar a eficiência do relacionamento entre os clientes e a empresa. Prevê a integração de todos os produtos de tecnologia para proporcionar o melhor atendimento ao cliente.
  • CRM Colaborativo: é a aplicação da tecnologia de informação que permite a automação e a integração entre todos os pontos de contato do cliente com a empresa. Estes pontos de contato devem estar preparados para interagir com o cliente e disseminar as informações levantadas para os sistemas do CRM operacional.
  • CRM Analítico: componente do CRM que permite identificar e acompanhar diferentes tipos de clientes dentro da carteira de uma empresa e de posse destas informações, determinar qual a estratégia a seguir para atender às diferentes necessidades dos clientes identificados. Normalmente utiliza recursos de mineração de dados para localizar padrões de diferenciação entre os clientes.
  • CRM Social: é a forma de interagir com o cliente por meio das mídias sociais, e ainda de erriquecer os dados e informações sobre o cliente com base nas informações encontradas em seus perfis nas redes sociais.

CRM e o Ensino

CRM, é uma expressão que pode ser traduzida para a língua portuguesa como Gestão de Relação com o Cliente. Define claramente toda uma classe de instrumentos que facilitam o contato com o cliente, sendo que serve de elo entre a empresa e o cliente e essencialmente, é considerado como uma mudança de atitude direcionada, que pretende auxiliar as instituições a criar e manter um bom relacionamento com os seus clientes, facilitando e interrelacionando de forma perspicaz e o desenvolvimento de informações sobre suas ações e interacções com a empresa.

O setor do Ensino não é excepção, pelo que é um canal de relacionamento entre as instituições e ao mesmo tempo com a sua comunidade estudantil e docente.

Cada vez mais, existem formas de divulgação através de Web, das Instituições de Ensino Superior, para a captação de clientes (alunos), através do uso de ferramentas direcionadas apresentadas nos diversos cursos existentes.

Cada vez mais o CRM, é usado como forma de ligação com o cliente em grande parte das empresas, nomeadamente no Ensino Superior. Os processos e sistemas de gestão de relacionamentos para com o cliente, facultam que se tenha um controle e informação precisa das novidades sobre os clientes de maneira integrada, que podem ser consultadas e participadas a distintas partes da empresa que precisem desta informação para acompanhar as tomadas de decisões.

Uma das actividades do contacto com o cliente envolve, a comunicação, sendo que, os registos não dependem do canal de comunicação que o cliente utilizou (voz, fax, email, chat, SMS, MMS, etc) e servem para que se tenham informações úteis e catalogáveis sobre os clientes. Logo no Ensino Superior, através dos registos efetuados pelos alunos nas matriculas, é possível ter acesso à comunidade universitária, e divulgar através de por exemplo, e-mail, quais as novidades existentes em cursos, estágios, oportunidades de carreira, etc, de forma a potenciar, não só novos candidatos, com também, o potenciar de novas inscrições em de alunos já matriculados.

CRM e a Informática

Por vezes o CRM é entendido única e exclusivamente como os sistemas de computador desenvolvidos para a gestão de clientes, ou mesmo como sistemas de vendas ainda mais simplificados.

Na realidade o CRM é apenas o conceito conforme descrito acima, e os sistemas de informática são as ferramentas que auxiliam na gestão do relacionamento com clientes, estas ferramentas são chamadas de Sistemas de CRM.

Fontes

TOURNIAIRE, Francoise. Just Enough CRM. 1 ed. Prentice Hall PTR, 2003. 400 p. ISBN 0-13-101017-4
ANDERSON, Kristin; KERR, Carol. Customer Relationship Management. 1 ed. McGraw-Hill, 2001, 168 p. ISBN 0-07-137954-1
PINTO, Alex Ferreira. " Conceito de CRM". 1 ed. Cidade: Casa do Administrador. 180 p.
MARTINS, Juno Araujo. "Estudo de Caso"
D'ARRIGO, Marcus. "Flexo Comunicação Dirigida"

Ver também

  • ITIL
  • Business intelligence
  • Blog Corporativo
  • Marketing de Relacionamento
  • Sistemas de CRM
  • Fornecedoras de sistemas de CRM

fonte.wikipedia

Software

 
Comunicação
Novas tecnologias de informação e comunicação
Tipos
Social • Massa • Interpessoal •
Intrapessoal • Verbal • Não verbal • Visual •
Audiovisual • Segmentada • Redes •
Ciberespacial • Não violenta
Mídias
Cartaz • Cinema • Correio • Fanzine •
Gravadora • Internet • Jornal • Livro • Outdoor •
Outbus • Panfleto • Podcast •
Quadrinhos ou BD • Rádio • Revista •
Televisão • Vídeo
Profissões
Assessoria • Design gráfico • Editoração •
Jornalismo • Produção audiovisual •
Produção cultural • Produção editorial • Publicidade •
Radialismo • Relações públicas • Roteiro
Disciplinas
Análise do discurso • Análise de conteúdo •
Cibercultura • Dialética •
Economia da informação • Estudos culturais •
Hermenêutica • Linguística • Marketing • Memética • Retórica •
Semiótica • Teoria da comunicação •Teoria das mediações • Teoria da propaganda
Conceitos
Agendamento • Audiência • Censura •
Ciberespaço • Cultura • Cultura de massa •
Espiral do silêncio • Evento midiático • Imagem •
Imprensa • Indústria cultural • Informação •
Interatividade • Linguagem • Mídia •
Propaganda • Signo • Símbolo • Texto •
Veículos
Elementos
Canal • Código • Contexto • Emissor • Feedback • Meio • Mensagem • Processo • Receptor • Repertório • Ruído
Temas e Questões
Convergência tecnológica • Democratização da comunicação •
Fluxo de informação • Grande mídia •
Imperialismo cultural • Inclusão digital •
Mídia alternativa • Mídia independente •
NOMIC • Sociedade da informação •
Pós-modernidade
Tecnologias
Animação • Ethernet • Hipermídia • Máquina de escrever •
Microfone • NTICs • Podcasting •
Radiodifusão • Radiotelefonia • Satélite •
Telecomunicações • Teledifusão • Telefonia •
Telegrafia • Videocassete
Escolas
Estruturalismo • Frankfurt • Palo Alto •
Funcionalismo • UNESCO
Por país
Ver Comunicações por país
Portal Imprensa • Portal Jornalismo

Chamam-se de Novas Tecnologias de Informação e Comunicação (NTICs) as tecnologias e métodos para comunicar surgidas no contexto da Revolução Informacional, "Revolução Telemática" ou Terceira Revolução Industrial, desenvolvidas gradativamente desde a segunda metade da década de 1970 e, principalmente, nos anos 1990. A imensa maioria delas se caracteriza por agilizar, horizontalizar e tornar menos palpável (fisicamente manipulável) o conteúdo da comunicação, por meio da digitalização e da comunicação em redes (mediada ou não por computadores) para a captação, transmissão e distribuição das informações (texto, imagem estática, vídeo e som). Considera-se que o advento destas novas tecnologias (e a forma como foram utilizadas por governos, empresas, indivíduos e setores sociais) possibilitou o surgimento da "sociedade da informação". Alguns estudiosos já falam de sociedade do conhecimento para destacar o valor do capital humano na sociedade estruturada em redes telemáticas.

São consideradas NTICs, entre outras:

  • os computadores pessoais (PCs, personal computers)
    • as câmeras de vídeo e foto para computador ou webcams
    • a gravação doméstica de CDs e DVDs
    • os diversos suportes para guardar e portar dados como os disquetes (com os tamanhos mais variados), discos rígidos ou hds, cartões de memória, pendrives, zipdrives e assemelhados
  • a telefonia móvel (telemóveis ou telefones celulares)
  • a TV por assinatura
    • TV a cabo
    • TV por antena parabólica
  • o correio eletrônico (e-mail)
      • as listas de discussão (mailing lists)
  • a internet
    • a world wide web (principal interface gráfica da internet)
      • os websites e home pages
      • os quadros de discussão (message boards)
    • o streaming (fluxo contínuo de áudio e vídeo via internet)
    • o podcasting (transmissão sob demanda de áudio e vídeo via internet)
    • esta enciclopédia colaborativa, a wikipedia, possível graças à Internet, à www e à invenção do wiki
  • as tecnologias digitais de captação e tratamento de imagens e sons
    • a captura eletrônica ou digitalização de imagens (scanners)
    • a fotografia digital
    • o vídeo digital
    • o cinema digital (da captação à exibição)
    • o som digital
    • a TV digital e o rádio digital
  • as tecnologias de acesso remoto (sem fio ou wireless)
    • Wi-Fi
    • Bluetooth
    • RFID
    • EPVC

Interatividade

De modo geral as novas tecnologias estão associadas à interatividade e a quebra com o modelo comunicacional um-todos, em que a informação é transmitida de modo unidirecional, adotando o modelo todos-todos, em que aqueles que integram redes de conexão operacionalizadas por meio das NTIC fazem parte do envio e do recebimento das informações. Neste sentido, muitas tecnologias são questionadas quanto a sua inclusão no conceito de novas tecnologias da informação e comunicação, ou meramente novos modelos de antigas tecnologias.

As novas tecnologias, relacionadas a uma revolução informacional, oferecem uma infraestrutura comunicacional que permite a interação em rede de seus integrantes. Numa rede, no entanto, geralmente são descartados modelos em que haja uma produção unilateral das informações que serão somente repassadas aos outros terminais de acesso. Este modelo é considerado reativo e não interativo e aparece mesmo na internet, disponibilizados pelos conhecidos portais, e agências midiáticas que disponibilizam suas informações e serviços pela Internet tão somente.

As novas tecnologias e a Comunicação

É difícil prever o impacto que terá nelas, embora já se possam antever alguns contornos: maior facilidade e rapidez de acesso à informação, melhor coordenação de colaboradores dispersos geograficamente, por exemplo, integração e automatização dos processos de negócio a montante (fornecedores) e a jusante (clientes), incremento da possibilidade de participação dos colaboradores nas actividades de gestão dos seus superiores hierárquicos, etc.

As novas tecnologias parecem favorecer a tendência para as empresas terem fronteiras cada vez menos demarcadas em relação ao seu meio ambiente, a trabalharem cada vez mais "em rede" com outras empresas e, dentro delas, os seus colaboradores também trabalharem cada vez mais conectadas.


As novas tecnologias de comunicação levam a educação a uma nova dimensão. Esta nova dimensão é a capacidade de encontrar uma lógica dentro do caos de informações que muitas vezes possuímos, organizar numa síntese coerente das informações dentro de uma área de conhecimento. Agilidade na questão de domínio do raciocínio lógico em grandes empresas com informações importantes para o crescimento da mesma.

fonte.wikipedia

Software

 

O sistema de informação contábil é um dos componentes do sistema de informação gerencial (SIG, em linguagem da TI ou tecnologia da informação). Em geral deverá ser composto das seguintes partes (ou módulos):

  • Contabilidade geral: direcionada ao registro contábil nos moldes do padrão internacional, com o foco nos itens monetários de Balanço (Contabilidade financeira). Pode disponibilizar trabalhos adicionais como a elaboraçãode fluxo de caixa, planilhas de empréstimos, cálculo de juros, etc.);
  • Contabilidade patrimonial: direcionada a informação para a gestão dos chamados itens não monetários do balanço: contas do Ativo Permanente e do Patrimônio Líquido, cálculo da Depreciação, Reavaliação, etc.
  • Contabilidade de custos: integrada a movimentação dos almoxarifados e direcionada a informação sobre a apropriação e os rateios contábeis dos custos e despesas;
  • Contabilidade gerencial: informação para a gestão administrativa com ênfase nas análises financeira e econômica (esta última principalmente em relação aos custos e investimentos), conversão em moeda estrangeira, consolidação de balanços, etc
  • Controladoria: integrada aos Orçamentos de curto-prazo, e direcionadas às informações dos chamados itens controláveis do Balanço;
  • Contabilidade Estratégica: integrada aos Orçamentos e Programas de Longo-Prazo, direcionadas `a informação para a chamada Gestão Estratégica.

Como os softwares desse tipo seguem o padrão internacional (vide Contabilidade internacional), as especializações brasileiras como Contabilidade tributária e Contabilidade Pública quando necessárias devem ser adaptadas (customizadas) à "plataforma" original dos programas, o que traz imensas dificuldades aos profissionais contábeis do país.


fonte.wikipedia

Software

 

Gestão estratégica de empresas (em língua inglesa: strategic enterprise management — SEM) é um termo que se refere às técnicas de gestão, avaliação e ao conjunto de ferramentas respectivas (como software) concebidas para ajudar empresas na tomada de decisões estratégicas de alto nível.

Índice

  • 1 Sistema de informação estratégico
  • 2 Gestão estratégica no planejamento público
  • 3 Gestão sustentável
  • 4 Ver também

Sistema de informação estratégico

Tipicamente é utilizado um sistema de informação estratégico (SIE) para gerir a informação e assistir no processo de decisão estratégica. Os SIE representam a evolução natural dos sistemas de informação de gestão face às necessidades das empresas em tirar partido da informação recolhida e processada por forma a ganhar vantagem competitiva e quiçá redefinir os objetivos da empresa para reajustá-la às alterações ambientais.

Um sistema de informação estratégico foi definido como "O sistema de informação que suporta ou altera a estratégia da empresa" por Charles Wiseman (Strategy and Computers 1985). Sprague definiu três classificações destes sistemas:

  1. Sistema competitivo
  2. Sistema cooperativo
  3. Sistema de operações de mudança na organização

Os conceitos chave na gestão estratégica de empresas são:

  • Estabelecer objetivo melhorar a posição da companhia, em oposição a objetivos genéricos, como o aumento de lucro ou redução de custos.
  • Avaliação da performance em termos dos objetivos estabelecidos, e disponibilização da informação a quem toma as decisões estratégicas.
  • Avaliação e gestão do "capital intelectual", aptidões e experiência da força de trabalho das companhias.
  • Gestão baseada em atividades (ABM, activity based management), que busca avaliar clientes e projetos nos termos de seus custo e benefícios totais à organização, melhor que supor que os projetos mais importantes são aqueles que trazem o rendimento mais elevado.

Gestão estratégica no planejamento público

No mundo globalizado, as organizações constantemente tentam fazer uma medição do seu nível, mediante um mercado ou setor, a fim de obterem comparações de seus indicadores com outras organizações. Este processo é denominado de benchmarking.

Na gestão pública não ocorre diferente. A organização pública faz constantemente a medição de seus indicadores, tais como o produto interno bruto per capita, renda familiar, arrecadação de impostos, desempenho de estudantes, entre outros, de modo a obter um referencial, um nível de performance, reconhecido como padrão de excelência para um processo de negócio específico em relação a outros países.

Um dos desafios dos gestores públicos é encontrar Benchmarks para os principais indicadores ou processos da gestão pública. O advento da globalização trouxe a homogeneização dos centros urbanos, expansões geopolíticas, revolução tecnológica e hibridização entre as culturas.

Os países, considerados de primeiro mundo, passaram a influenciar e ditar os padrões de excelência em todas as áreas: econômica, política, educacional e social.

“Não basta conquistar a sabedoria, é preciso usá-la”, já dizia Cícero. Para diminuir essa linha de comando imposta pelos países de primeiro mundo, a gestão pública pode visionar seu foco num excelente planejamento estratégico.

Para tal, ela pode utilizar a ferramenta de gestão empresarial conhecida como balanced scorecard (BSC). O BSC traduz a missão e a estratégia das organizações num conjunto abrangente de medidas de desempenho que serve de base para um sistema de medição e gestão estratégica.

A proposta do BSC é tornar entendível, para todos os níveis da organização, a visão, a missão e a estratégia, para todos saibam o que fazer e de que forma suas ações impactam no desempenho organizacional.

Os objetivos desta metodologia vão muito além do que se poderia extrair de um mero conjunto de indicadores. Quando aplicado adequadamente, permite ainda transformações organizacionais no sentido da ação, em especial criar uma visão integral da gestão e da sua situação atual, olhar em frente de forma pró-ativa, alinhar a estrutura organizacional, estabelecer iniciativas priorizadas em direção as estratégicas definidas e ainda influenciar o comportamento da sociedade.

O BSC é uma construção interativa feita pelos gestores da própria organização. As perspectivas do BSC estão todas interligadas, nenhuma pode ser vista de forma independente e a ordem é relevante.

Entretanto, uma análise de conteúdo do que se inclui em cada perspectiva mostra grandes diferenças entre um BSC aplicado a uma empresa ou serviço público: na missão estratégica, na perspectiva financeira, na perspectiva social, na perspectiva dos processos internos e na perspectiva de aprendizagem e crescimento.

Como o BSC nasceu no meio empresarial e tem sido desenvolvido em torno dessa realidade, não se pode aplicar sem as devidas adaptações à realidade do setor público, que tradicionalmente guiado pela imensidão de normais legais, está hoje pressionado pela escassez dos recursos financeiros e colocado perante a necessidade de adotar novos instrumentos de gestão.

De certa forma, o BSC é um modelo interessante capaz de trazer inovação aos serviços públicos. Porém, as organizações públicas estão começando a compreender que os projetos de sucesso exigem mais do que recursos financeiros e idéias dispersas. Quando um projeto falha, perde-se dinheiro, tempo e confiança pública.

Um olhar sobre a inércia dos sistemas de informações atuais dos serviços públicos, sugere que alguns têm funcionado em autogestão e internamente, algumas produzidas também isoladamente ao longo do tempo. Por exemplo, temos a redundância de processos para uma mesma finalidade, sendo processo um conjunto de atividades estruturadas.

Tem-se ouvido constantemente de alguns “arrivistas adeptos da era da modernização” que a área pública carece e necessita urgentemente da implantação de inteligência. Falam em inteligência como se esta fosse um produto acabado, disposto em prateleiras de lojas, à disposição de um ávido administrador bem-intencionado que queira propiciar uma verdadeira reforma no setor público! Eis um desafio, desenvolver um processo de gestão do conhecimento.

Os sintomas de disfunção são visíveis no interior do setor público, ao longo de seu relacionamento e até com a sociedade. A perspectiva de processos do BSC aplicada ao setor público implica uma visão organizada e interativa que afeta ao negócio de todos os serviços públicos fazendo cair à lógica de autogestão, independência funcional destes serviços e a carência de inteligência.

Tal visão leva ainda a inclusão da voz do cidadão no desenho do processo, de modo que o resultado conduza a sua satisfação. Tudo é uma questão de estratégia. De identificar quais as aspirações públicas: aonde queremos chegar e o que pretendemos ser?

Embora não seja um padrão único e universal para a formulação de estratégias, faz-se necessário à criação de um esboço para que se possa prosseguir com a definição do processo estratégico, que viabilize a sociedade.

De forma mais específica é formular, desenvolver, planejar, implantar e controlar o processo estratégico, além de se prevenir dos comportamentos sazonais futuros nas séries temporais, que está liga a macroeconomia (crescimento econômico, taxas de inflação, etc), às finanças (previsão de evoluções de mercados financeiros, investimentos, etc), a gestão empresarial (procura de produtos, consumo, etc), a gestão pública (previsões de trafego em pontos ou estradas, etc) e as áreas científicas (meteorologia, etc).

Muitas análises preditivas podem ajudar os administradores na gestão de seus municípios, estados e outros órgãos públicos, nas mais diversas áreas. Estas análises auxiliam na prevenção a eventos futuros, fazendo com que diversas ações possam ser tomadas antes que os eventos ocorram.

Essas análises devem estar presentes no planejamento estratégico. Isso auxiliará a gestão pública nas questões concernentes à arrecadação dos impostos, ao atendimento das demandas sociais em relação à saúde e a educação.

Nota: O resumo acima foi elaborado com base na conceituação de Danilo Mozeli Dumont, José Araújo Ribeiro e Luiz Alberto Rodrigues, conforme encontrada na obra "Inteligência Pública na Era do Conhecimento" (Ed. Revan, 2006).

Gestão sustentável

A gestão sustentável é uma capacidade para dirigir o curso de uma empresa, comunidade, ou país, por vias que valorizam, recuperam todas as formas de capital, humano, natural e financeiro de modo a gerar valor aos stakeholders (lucro). A gestão de processos deve ser vista sempre como um processo evolutivo de trabalho e gestão e não somente como um projecto com inicio, meio e fim. Se não for conduzida com esta visão, a tendência de se tornar um modismo dentro da empresa ou do país e logo ser esquecida ao sinal de um primeiro tropeço é grande. Muitos esforços e investimentos têm sido gastos sem o retorno espectável.

Tudo isto leva-nos a questionar o que será necessário, manter o business as usual onde a optimização muita das vezes está esgotada ou aderirmos a um business as bnusual, isto é, tentar mudar o paradigma de desenvolvimento e para isso será necessário novas atitudes e comportamentos, a “eco eficiência”. É imperativo saber adaptar-se às novas mudanças., aprender a fomentar uma cultura empresarial onde se fundem a lucratividade e se salvaguarda o ambiente e os benefícios sociais. As empresas não podem descurar a Globalização crescente da economia mundial.

Se pensarmos que 10% de tudo o que é extraído do planeta pela industria (em peso) é que se torna produto útil e que o restante é resíduo, torna-se urgente uma gestão sustentável que nos leve a um consumo sustentável, é urgente minimizar a utilização de recursos naturais e materiais tóxicos. O desenvolvimento sustentável não é ambientalismo nem apenas ambiente, mas sim um processo de equilíbrio entre os objectos económicos, financeiros, ambientais e sociais.

Se pensarmos que os recursos desperdiçados e as constantes perdas de lucros têm tendência a aumentar ao longo dos anos (ex.: Katrina — 80.000 milhões dólares em prejuízos), e que países em desenvolvimento (ex.: o BRIC — Brasil, Rússia, Índia e China) começam a dar sobeja importância ao crescimento ambiental e social, leva-nos a pensar que é urgente também Portugal acordar para esta temática e tomar uma atitude mais firme e real no que concerne à gestão sustentável, quer por parte das entidades governamentais, quer por parte do tecido empresarial. Tendo em conta que o lucro é uma pré-condição para objectivar as outras condições da sustentabilidade, não vejo razão alguma para que Portugal e o seu tecido empresarial não adquiram uma competitividade sustentável.

Apesar de na teoria Portugal já ter uma estratégia para o desenvolvimento sustentável, na prática ainda não se verifica, pois o grande problema do nosso país é “o crescimento anémico da produtividade”, ou seja a reduzida competitividade. A nova gestão e consequentemente os actuais e futuros gestores/empreendedores portugueses deverão assim adoptar um novo instrumento para criar valor, melhorando a eficiência das empresas — a eco eficiência.

Em suma, a sustentabilidade do planeta somente vai apresentar uma evolução compatível com as necessidades do meio ambiente a partir do momento em que ela se tornar um grande negócio. Ganham todos; ganha o planeta, ganham os consumidores (população), ganham os empresários em geral (economia mundial).


fonte.wikipedia

Software

 

O e-learning, ou ensino eletrónico, corresponde a um modelo de ensino não presencial suportado por tecnologia. Atualmente, o modelo de ensino/aprendizagem assenta no ambiente online, aproveitando as capacidades da Internet para comunicação e distribuição de conteúdos. Outra definição simples para e-learning será "o processo pelo qual o aluno aprende através de conteúdos colocados no computador e/ou Internet e em que o professor, se existir, está à distância, utilizando a Internet como meio de comunicação (síncrono ou assíncrono) podendo existir sessões presenciais intermédias"[1] O sistema que inclui aulas presenciais no sistema de e-learning recebe o nome de blended learning ou b-learning.

Índice

  • 1 Como funciona
  • 2 E-learning síncrono e assíncrono
  • 3 Benefícios do e-learning
  • 4 Críticas ao e-learning
  • 5 Ver também
  • 6 Referências

Como funciona

A fim de apoiar o processo, foram desenvolvidos sistemas de gestão da aprendizagem (Learning Management System ou LMS, no original). São aplicações projetadas para funcionar como salas de aula virtuais, gerando várias possibilidades de interação entre os seus participantes. Em particular, os processos de interação em tempo real são facilitados, permitindo que o aluno tenha contacto imediato com o professor e com outros alunos.

Segundo a corrente sócio-interacionista, a interatividade disponibilizada pelas tecnologias da Internet e intranet pode ser encarada como um meio de comunicação entre alunos, tutores, e o meio. Partindo dessa premissa, pode proporcionar interacção nos seguintes níveis:

  • Aluno/Tutor.
  • Aluno/Conteúdo.
  • Aluno/Aluno.
  • Aluno/Ambiente.

O blended learning é um derivado do e-learning, e refere-se a um sistema de formação onde a maior parte dos conteúdos é transmitido em curso à distância, normalmente pela Internet, mas inclui sessões presenciais, daí a origem da designação blended que significa misto, combinado. Pode ser estruturado com atividades síncronas, ou assíncronas, da mesma forma que o e-learning, ou seja, em situações onde professor e alunos trabalham juntos num horário pré-definido, ou não, com cada um a cumprir suas tarefas em horários flexíveis. O b-learning em geral não é totalmente assíncrono, porque exige uma disponibilidade individualizada para os encontros presenciais.

E-learning síncrono e assíncrono

O ensino através do e-learning pode ser síncrono ou assíncrono. O ensino é síncrono é quando professor e aluno estão em aula ao mesmo tempo. Exemplos de recursos síncronos são o telefone, chat, vídeo-conferência, web-conferência. Através da web-conferência o professor ministrará a aula e os alunos, via Web, irão ouvir sua palestra e ver suas transparências. Permitindo perguntas e discussões, este modelo é o que mais se assemelha ao ensino presencial. Com a maior facilidade em usar meios de comunicação por voz na web, como por exemplo o Skype e os mensageiros, o ensino síncrono tem ganho importância[carece de fontes?].

No ensino assíncrono o professor e os alunos não estão em aula ao mesmo tempo. Exemplos de recursos assíncronos são o e-mail e os fóruns. No e-learning corporativo, muitos projetos não têm professor, são o auto-treinamento na sua essência. O aluno inscreve-se quando quiser, participa quando quiser e termina quando quiser. Por apresenta baixos custos variáveis; o custo individual é mais baixo quanto maior for o número de alunos. No e-learning assíncrono com professor este responde a dúvidas e participar nas discussões em momentos diferentes dos alunos. Por exemplo, um aluno publica uma pergunta às 9h00 e o professor pode responder às 17h00. O ensino assíncrono distingue-se pela sua flexibilidade no uso do tempo, podendo cada aluno fazer o curso de acordo com o seu ritmo de aprendizagem e disponibilidade horária.

Antes do advento da informática, o ensino à distância era possível apenas de duas formas: "um para muitos" (TV, rádio) e "um para um" (ensino por correspondência). Com a Internet mais uma possibilidade foi acrescentada, "muitos para um", por esse motivo o ensino à distância tornou-se indissociável da Internet[carece de fontes?].

Benefícios do e-learning

O e-learning aumenta as possibilidades de difusão do conhecimento e da informação para os alunos e tornou-se uma forma de democratizar o saber para as camadas da população com acesso às novas tecnologias, permitindo que o conhecimento esteja disponível a qualquer hora e em qualquer lugar.[carece de fontes?]

São apontadas várias vantagens ao e-learning:[carece de fontes?]

  • Centralidade no aluno.
  • Convergente com as necessidades dos alunos.
  • Rápida actualização dos conteúdos.
  • Personalização dos conteúdos transmitidos.
  • Facilidade de acesso e flexibilidade de horários.
  • O ritmo de aprendizagem pode ser definido pelo próprio utilizador/formando.
  • Disponibilidade permanente dos conteúdos da formação.
  • Custos menores quando comparados à formação convencional.
  • Redução do tempo necessário para o formando.
  • Possibilidade de formação de um grande número de pessoas ao mesmo tempo.
  • Diversificação da oferta de cursos.
  • Facilidade de cobertura de públicos geograficamente dispersos.
  • Registro e possibilidade de acompanhamento detalhado da participação dos alunos.
  • Redução de custos logísticos e administrativos (deslocamentos, alimentação, …).
  • Desenvolvimento de capacidades de auto-estudo e auto-aprendizagem.

Críticas ao e-learning

São feitas críticas ao e-learning devido à ausência do contato humano direto e às deficiências que isso pode gerar . Os defensores do e-learning argumentam que a aprendizagem baseada em tecnologia compensa a falta do contato humano direto com a criação de comunidades virtuais que interagem através de chats, fóruns, e-mails, etc., enriquecendo o processo relacional de pessoas com o mesmo interesse, mas com diferentes visões e localizadas em distintas regiões ou países.[carece de fontes?]

São também apontadas várias desvantagens ao e-learning:[carece de fontes?]

  • Problemas técnicos.
  • Dificuldades de adaptação a ferramenta e ao ambiente digital.
  • A tecnofobia ainda está presente em significativa parcela da população.
  • Necessidade de maior esforço para motivação dos alunos.
  • Exigência de maior disciplina e auto-organização por parte do aluno.
  • A criação e a preparação do curso on-line é, geralmente, mais demorada do que a da formação.
  • Não gera a possibilidade da existência de cumplicidades e vínculos relacionais, que somente o processo de interacção presencial permite.
  • O custo de implementação da estrutura para o desenvolvimento programa de e-learning é alto.[carece de fontes?]
  • Dificuldades técnicas relativas à Internet e à velocidade de transmissão de imagens e vídeos.
  • Limitações no desenvolvimento da socialização do aluno.
  • Limitações em alcançar objectivos na área afectiva e de atitudes, pelo empobrecimento da troca directa de experiência entre professor e aluno.

fonte.wikipeida

Software

 

Tele-educação, Educação a Distância ou Ensino a Distância (EaD) [nota 1] é a modalidade de ensino que permite que o aprendiz não esteja fisicamente presente em um ambiente formal de ensino-aprendizagem, assim como também permite que o aluno estude autonomamente e em horários distintos. Diz respeito também à separação cronológica ou espacial entre professor e aprendiz.

A interligação (conexão) didática entre professor e aluno ocorre por meio de tecnologias, principalmente as telemáticas, como a Internet e em especial as hipermídias, mas também podem ser utilizados outros recursos de comunicação, tais como carta, rádio, televisão, vídeo, CD-ROM, telefone, fax, celular, iPod, notebook etc.

A EaD (o termo educação é preferido por ser mais abrangente) enfatiza o papel do aluno, que gerencia seu próprio aprendizado, deste modo desenvolvendo sua autonomia.

Índice

  • 1 História
    • 1.1 Na Antiguidade
    • 1.2 Os séculos XVII e XVIII
    • 1.3 O século XIX
    • 1.4 História Moderna
    • 1.5 Gerações
  • 2 Aspecto ideológico
  • 3 Sistemática
  • 4 Ambientes virtuais de aprendizagem (AVA)
  • 5 O professor como mediador na EaD
  • 6 Perspectivas atuais
  • 7 E-learning
  • 8 EaD no mundo
    • 8.1 Brasil
  • 9 Aplicações
    • 9.1 Ensino jurídico a distância
    • 9.2 Língua portuguesa
  • 10 Referências
  • 11 Notas
  • 12 Ver também
    • 12.1 Entidades
    • 12.2 Ferramentas
    • 12.3 Leituras Adicionais
  • 13 Ligações externas

História

A EaD, em sua forma empírica, é conhecida desde o século XIX. Entretanto, somente nas últimas décadas passou a fazer parte das atenções pedagógicas. Ela surgiu da necessidade do preparo profissional e cultural de milhões de pessoas que, por vários motivos, não podiam frequentar um estabelecimento de ensino presencial, e evoluiu com as tecnologias disponíveis em cada momento histórico, as quais influenciam o ambiente educativo e a sociedade.

A EaD também é considerada um recurso que contempla as necessidades de desenvolvimento da autonomia do aluno. O desenvolvimento da autonomia é considerado, por teóricos tais como Jean Piaget e Constance Kamii, peça chave do processo de aprendizagem, no qual o aluno é o foco e o professor possui papel secundário, pois apenas orienta o aluno que por sua vez escolhe o ritmo e a maneira como quer estudar e aprender, de acordo com suas necessidades pessoais.

Na Antiguidade

Inicialmente na Grécia antiga e depois em Roma havia redes de comunicação que permitiam o desenvolvimento significativo da correspondência e, por consequência, a troca de informações. [carece de fontes?]

Hoje temos a educação presencial, semi-presencial (parte presencial/parte virtual ou a distância) e educação a distância (ou virtual). A presencial é a dos cursos regulares, em qualquer nível, onde professores e alunos se encontram sempre num local físico, chamado sala de aula. É o ensino convencional. A semi-presencial acontece em parte na sala de aula e outra parte a distância, através de tecnologias. A educação a distância pode ter ou não momentos presenciais, mas acontece fundamentalmente com professores e alunos separados fisicamente no espaço e ou no tempo, mas podendo estar juntos através de tecnologias de comunicação.

Os séculos XVII e XVIII

Com a Revolução Científica iniciada no século XVII, as cartas comunicando informações científicas inauguraram uma nova era na arte de ensinar. Segundo Lobo Neto (1995), um primeiro marco da educação a distância foi o anúncio publicado na Gazeta de Boston, no dia 20 de março de 1728, pelo professor de taquigrafia Cauleb Phillips: "Toda pessoa da região, desejosa de aprender esta arte, pode receber em sua casa várias lições semanalmente e ser perfeitamente instruída, como as pessoas que vivem em Boston".[7]

O século XIX

Em 1833, um anúncio publicado na Suécia já se referia ao ensino por correspondência, e na Inglaterra, em 1840, Isaac Pitman sintetizou os princípios da taquigrafia em cartões postais que trocava com seus alunos. No entanto, o desenvolvimento de uma ação institucionalizada de educação a distância teve início a partir da metade do século XIX.

Em 1856, em Berlim, Charles Toussaint e Gustav Langenscheidt fundaram a primeira escola por correspondência destinada ao ensino de línguas. Posteriormente, em 1873, em Boston, Anna Eliot Ticknor criou a Society to Encourage Study at Home. Em 1891, Thomas J. Foster iniciou em Scarnton (Pensilvânia) o International Correspondence Institute, com um curso sobre medidas de segurança no trabalho de mineração.

Em 1891, a administração da Universidade de Wisconsin aceitou a proposta de seus professores para organizar cursos por correspondência nos serviços de extensão universitária. Um ano depois, o reitor da Universidade de Chicago, William R. Harper, que já havia experimentado a utilização da correspondência na formação de docentes para as escolas dominicais, criou uma Divisão de Ensino por Correspondência no Departamento de Extensão daquela Universidade.

Por volta de 1895, em Oxford, Joseph W. Knipe, após experiência bem-sucedida preparando por correspondência duas turmas de estudantes, a primeira com seis e a segunda com trinta alunos, para o Certificated Teacher’s Examination, iniciou os cursos de Wolsey Hall utilizando o mesmo método de ensino. Já em 1898, em Malmö, na Suécia, Hans Hermod, diretor de uma escola que ministrava cursos de línguas e cursos comerciais, ofereceu o primeiro curso por correspondência, dando início ao famoso Instituto Hermod.

História Moderna

No final da Primeira Guerra Mundial, surgiram novas iniciativas de ensino a distância em virtude de um considerável aumento da demanda social por educação, confirmando, de certo modo, as palavras de William Harper, escritas em 1886 "Chegará o dia em que o volume da instrução recebida por correspondência será maior do que o transmitido nas aulas de nossas academias e escolas; em que o número dos estudantes por correspondência ultrapassará o dos presenciais."

O aperfeiçoamento dos serviços de correio, a agilização dos meios de transporte e, sobretudo, o desenvolvimento tecnológico aplicado ao campo da comunicação e da informação influíram decisivamente nos destinos da educação a distância. Em 1922, a antiga União Soviética organizou um sistema de ensino por correspondência que em dois anos passou a atender 350 mil usuários. A França criou em 1939 um serviço de ensino por via postal para a clientela de estudantes deslocados pelo êxodo.

A partir daí, começou a utilização de um novo meio de comunicação, o rádio, que penetrou também no ensino formal. O rádio alcançou muito sucesso em experiências nacionais e internacionais, tendo sido bastante explorado na América Latina nos programas de educação a distância do Brasil, Colômbia, México, Venezuela, entre outros.

Após as décadas de 1960 e 1970, a educação a distância, embora mantendo os materiais escritos como base, passou a incorporar articulada e integradamente o áudio e o videocassete, as transmissões de rádio e televisão, o videotexto, o computador e, mais recentemente, a tecnologia de multimeios, que combina textos, sons, imagens, assim como mecanismos de geração de caminhos alternativos de aprendizagem (hipertextos, diferentes linguagens) e instrumentos para fixação de aprendizagem com feedback imediato (programas tutoriais informatizados) etc..

Atualmente, o ensino não presencial mobiliza os meios pedagógicos de quase todo o mundo, tanto em nações industrializadas quanto em países em desenvolvimento. Novos e mais complexos cursos são desenvolvidos, tanto no âmbito dos sistemas de ensino formal quanto nas áreas de treinamento profissional.

A educação a distância foi utilizada inicialmente como recurso para superação de deficiências educacionais, para a qualificação profissional e aperfeiçoamento ou atualização de conhecimentos. Hoje, cada vez mais foi também usada em programas que complementam outras formas tradicionais, face a face, de interação, e é vista por muitos como uma modalidade de ensino alternativo que pode complementar parte do sistema regular de ensino presencial. Por exemplo, a Universidade Aberta oferece comercialmente somente cursos a distância, sejam cursos regulares ou profissionalizantes. A Virtual University oferece cursos gratuitos.

Gerações

O desenvolvimento da EaD pode ser descrito basicamente em três gerações, conforme os avanços e recursos tecnológicos e de comunicação de cada época.

  • Primeira geração: Ensino por correspondência, caracterizada pelo material impresso iniciado no século XIX. Nesta modalidade, por exemplo, o pioneiro no Brasil é o Instituto Monitor, que, em 1939, ofereceu o primeiro curso por correspondência, de Radiotécnico. Em seguida, temos o Instituto Universal Brasileiro atuando há mais de 60 anos nesta modalidade educativa, no país…
  • Segunda geração: Teleducação/Telecursos, com o recurso aos programas radiofônicos e televisivos, aulas expositivas, fitas de vídeo e material impresso. A comunicação síncrona predominou neste período. Nesta fase, por exemplo, destacaram-se a Telescola, em Portugal, e o Projeto Minerva, no Brasil;
  • Terceira geração: Ambientes interativos, com a eliminação do tempo fixo para o acesso à educação, a comunicação é assíncrona em tempos diferentes e as informações são armazenadas e acessadas em tempos diferentes sem perder a interatividade. As inovações da World Wide Web possibilitaram avanços na educação a distância nesta geração do século XXI. Hoje os meios disponíveis são: teleconferência, chat, fóruns de discussão, correio eletrônico, blogues, espaços wiki, plataformas de ambientes virtuais que possibilitam interação multidirecional entre alunos e tutores.

Aspecto ideológico

A EaD caracteriza-se pelo estabelecimento de uma comunicação de múltiplas vias, suas possibilidades ampliaram-se em meio às mudanças tecnológicas como uma modalidade alternativa para superar limites de tempo e espaço. Seus referenciais são fundamentados nos quatro pilares da Educação do Século XXI publicados pela UNESCO, que são: aprender a conhecer, aprender a fazer, aprender a viver juntos e aprender a ser.[8][9]

Assim, a Educação deixa de ser concebida como mera transferência de informações e passa a ser norteada pela contextualização de conhecimentos úteis ao aluno. Na educação a distância, o aluno é desafiado a pesquisar e entender o conteúdo, de forma a participar da disciplina.

Sistemática

Nesta modalidade de ensino estudantes e professores não necessitam estar presentes num local específico durante o período de formação. Desde os primórdios do ensino a distância, utiliza-se a correspondência postal para enviar material ao estudante, seja na forma escrita, em vídeos, cassetes áudio ou CD-ROMs, bem como a correção e comentários aos exercícios enviados, depois de feitos pelo estudante. Depois do advento da Internet, o e-mail e todos os recursos disponíveis na World Wide Web tornaram-se largamente utilizados, ampliando o campo de abrangência da EaD. Em alguns casos, é pedido ao estudante que esteja presente em determinados locais para realizar a sua avaliação. A presencialidade é muitas vezes necessária no processo de educação.

Metodologias utilizadas

No ensino a distância não deve haver diferença entre a metodologia utilizada no ensino presencial. As metodologias mais eficientes no ensino presencial são também as mais adequadas ao ensino a distância. O que muda, basicamente, não é a metodologia de ensino, mas a forma de comunicação. Isso implica afirmar que o simples uso de tecnologias avançadas não garante um ensino de qualidade, segundo as mais modernas concepções de ensino[10]. As estratégias de ensino devem incorporar as novas formas de comunicação e, também, incorporar o potencial de informação da Internet.

A Educação apoiada pelas novas tecnologias digitais foi enormemente impulsionada assim que a banda larga começou a se firmar, e a Internet passou a ser potencialmente um veículo para a comunicação a distância.

A EaD caracteriza-se pelo estabelecimento de uma comunicação de múltiplas vias, suas possibilidades ampliaram-se em meio às mudanças tecnológicas como uma modalidade alternativa para superar limites de tempo e espaço.

Ambientes virtuais de aprendizagem (AVA)

O ambiente virtual de aprendizagem ou LMS (Learning Management System) é um software baseado na Internet que facilita a gestão de cursos no ambiente virtual. Existem diversos programas disponíveis no mercado de forma gratuita ou não. O Blackboard é um exemplo de Ambiente Virtual de Aprendizagem - AVA pago e o Moodle é um sistema gratuito e de código aberto. Todo o conteúdo, interação entre os alunos e professores são realizado dentro deste ambiente. De acordo com Clark e Mayer(2007), os ambientes virtuais são elementos fundamentais na tarefa de ensino, porém carecem de suporte pedagógico adequado em relação ao processo de aprendizagem.

O professor como mediador na EaD

Nesse processo de aprendizagem, assim como no ensino regular o orientador ou o tutor da aprendizagem atua como "mediador", isto é, aquele que estabelece uma rede de comunicação e aprendizagem multidirecional, através de diferentes meios e recursos da tecnologia da comunicação, não podendo assim se desvincular do sistema educacional e deixar de cumprir funções pedagógicas no que se refere à construção da ambiência de aprendizagem. Essa mediação tem a tarefa adicional de vencer a distância física entre educador e o educando, que deverá ser autodisciplinado e automotivado para que possa superar os desafios e as dificuldades que surgirem durante o processo de ensino-aprendizagem.

Hoje se tem uma educação diferenciada como: presencial, semi-presencial e educação a distância. A presencial são os cursos regulares onde professores e alunos se encontram sempre numa instituição de ensino. A semi-presencial, acontece em parte na sala de aula e outra parte a distância, utilizando tecnologia da informação.

As pessoas se deparam a cada dia com novos recursos trazidos por esta tecnologia que evolui rapidamente, atingindo os ramos das instituições de ensino. Falar de educação hoje, tem uma abrangência muito maior, e fica impossível não falar na educação sem nos remetermos à educação a distância, com todos os avanços tecnológicos proporcionando maior interatividade entre as pessoas. Utilizando os meios tecnológicos a EaD veio para derrubar tabus e começar uma nova era em termos de educação.

Esse tipo de aprendizagem não é mais uma alternativa para quem não faz uso da educação formal, mas se tornou uma modalidade de ensino de qualidade que possibilita a aprendizagem de um número maior de pessoas.

Antes a EaD não tinha credibilidade, era um assunto polêmico e trazia muitas divergências, mas hoje esse tipo de ensino vem conquistando o seu espaço. Porém, não é a modalidade de ensino que determina o aprendizado, seja ela presencial ou a distância, aprendizagem se tornou hoje sinônimo de esforço e dedicação de cada um.

Perspectivas atuais

Atualmente, a educação a distância possibilita a inserção do aluno como sujeito de seu processo de aprendizagem, com a vantagem de que ele também descobre formas de tornar-se sujeito ativo da pesquisa e do compartilhar de conteúdos. Cabe às instituições que promovem o ensino a distância buscar desenvolver seus programas de acordo com os quatro pilares da educação, definidos pela Unesco.

Aprender a conviver diz respeito ao desenvolvimento da capacidade de aceitar a diversidade, conviver com as diferenças, estabelecer relações cordiais com a diversidade cultural respeitando-a e contribuindo para a harmonia mundial.

E-learning


O termo e-Learning é fruto de uma combinação ocorrida entre o ensino com auxílio da tecnologia e a educação a distância. Ambas modalidades convergiram para a educação online e para o treinamento baseado em Web, que ao final resultou no e-Learning.

EaD no mundo

A Suécia registrou sua primeira experiência em 1833, com um curso de Contabilidade. Na mesma época, fundou-se na Alemanha em 1856 o primeiro instituto de ensino de línguas por correspondência. O modelo de ensino foi iniciado na Inglaterra em 1840, e, em 1843 foi criada a Phonografic Corresponding Society. Fundada em 1962, a Universidade Aberta mantém um sistema de consultoria, auxiliando outras nações a implementar uma educação a distância de qualidade. Também no século XIX, a EaD foi iniciada nos Estados Unidos da América na Illinois Weeleyan University.

Já no século XX, em 1974, a Universidade Aberta Allma Iqbal no Paquistão iniciou a formação de docentes via EaD. A partir de 1980, a Universidade Aberta de Sri Lanka passou a atender setores importantes para o desenvolvimento do país: profissões tecnológicas e formação docente. Na Tailândia, a Universidade Aberta Sukhothiai Thommathirat tem cerca de 400 mil estudantes em diferentes setores e modalidades.

Criada em 1984, a Universidade de Terbuka na Indonésia surgiu para atender forte demanda de estudos superiores, e prevê chegar a cinco milhões de estudantes. Já na Índia, criada em 1985, a Universidade Nacional Aberta Indira Gandhi tem objetivo de atender a demanda de ensino superior.

A Austrália é um dos países que mais investe em EaD, mas não tem nenhuma universidade especializada nesta modalidade. Nas universidades de Queensland, New England, Macquary, Murdoch e Deakin, a proporção de estudantes a distância é maior ou igual à de estudantes presenciais.

Na América Latina programas existentes incluem o Programa Universidade Aberta, inserido na Universidade Autônoma do México (criada em 1972), a Universidade Estatal a Distância da Costa Rica (de 1977), a Universidade Nacional Aberta da Venezuela (também de 1977) e a Universidade Estatal Aberta e a Distância da Colômbia (criada em 1983).

Brasil

No Brasil, desde a fundação do Instituto Rádio­ Técnico Monitor, em 1939, o hoje Instituto Monitor, depois do Instituto Universal Brasileiro, em 1941, e o Instituto Padre Reus em 1974, várias experiências de educação a distância foram iniciadas e levadas a termo com relativo sucesso. As experiências brasileiras, governamentais e privadas, foram muitas e representaram, nas últimas décadas, a mobilização de grandes contingentes de recursos. Os resultados do passado não foram suficientes para gerar um processo de aceitação governamental e social da modalidade de educação a distância no país. Porém, a realidade brasileira já mudou e o governo brasileiro criou leis e estabeleceu normas para a modalidade de educação a distância no país.

Em 1904, escolas internacionais, que eram instituições privadas, ofereciam cursos pagos, por correspondência. Em 1934, Edgard Roquette-Pinto instalou a Rádio-Escola Municipal no Rio de Janeiro no projeto para a então Secretaria Municipal de Educação do Distrito Federal dirigida por Anísio Teixeira integrando o rádio com o cinema educativo(Humberto Mauro)a biblioteca e o museu escolar numa pioneira proposta de educação a distância. Estudantes tinham acesso prévio a folhetos e esquemas de aulas. Utilizava também correspondência para contato com estudantes. Já em 1939 surgiu em São Paulo (cidade) o Instituto Monitor, na época ainda com o nome Instituto Rádio­ Técnico Monitor. Dois anos mais tarde surge a primeira Universidade do Ar, que durou até 1944. Entretanto, em 1947 surge a Nova Universidade do Ar, patrocinada pelo SENAC, SESC e emissoras associadas.

Durante a década de 1960, com o Movimento de Educação de Base (MEB), Igreja Católica e Governo Federal utilizavam um sistema radio-educativo: educação, conscientização, politização, educação sindicalista, etc.. Em 1970 surge o Projeto Minerva, um convênio entre Fundação Padre Landell de Moura e Fundação Padre Anchieta para produção de textos e programas. Dois anos mais tarde, o Governo Federal enviou à Inglaterra um grupo de educadores, tendo à frente o conselheiro Newton Sucupira: o relatório final marcou uma posição reacionária às mudanças no sistema educacional brasileiro, colocando um grande obstáculo à implantação da Universidade Aberta e a Distância no Brasil.

Na década de 1970, a Fundação Roberto Marinho era um programa de educação supletiva a distância, para ensino fundamental e ensino médio. Entre as décadas de 1970 e 1980, fundações privadas e organizações não-governamentais iniciaram a oferta de cursos supletivos a distância, no modelo de teleducação, com aulas via satélite complementadas por kits de materiais impressos, demarcando a chegada da segunda geração de EaD no país. A maior parte das Instituições de Ensino Superior brasileiras mobilizou-se para a EaD com o uso de novas tecnologias da comunicação e da informação somente na década de 1990. Em 1992, foi criada a Universidade Aberta de Brasília (Lei 403/92), podendo atingir três campos distintos: a ampliação do conhecimento cultural com a organização de cursos específicos de acesso a todos, a educação continuada, reciclagem profissional às diversas categorias de trabalhadores e àqueles que já passaram pela universidade; e o ensino superior, englobando tanto a graduação como a pós-graduação. Em 1994, teve início a expansão da Internet no ambiente universitário. Dois anos depois, surgiu a primeira legislação específica para educação a distância no ensino superior. As bases legais para essa modalidade foram estabelecidas pela Lei de Diretrizes e Bases na Educação Nacional n°9.394, de 20 de dezembro de 1996, regulamentada pelo decreto n°5.622 de 20 de dezembro de 2005, que revogou os decretos n°2.494 de 10/02/98, e n°2.561 de 27/04/98, com normatização definida na Portaria Ministerial n°4.361 de 2004.

No decreto n°5.622 dita que, ficam obrigatórios os momentos presenciais para avaliação, estágios, defesas de trabalhos e conclusão de curso. Classifica os níveis de modalidades educacionais em educação básica, de jovens e adultos, especial, profissional e superior. Os cursos deverão ter a mesma duração definida para os cursos na modalidade presencial.

Os cursos poderão aceitar transferência e aproveitar estudos realizados em cursos presenciais, da mesma forma que cursos presenciais poderão aproveitar estudos realizados em cursos a distância. Regulariza o credenciamento de instituições para oferta de cursos e programas na modalidade a distância (básica, de jovens e adultos, especial, profissional e superior).

Aplicações

Existem diversas aplicações da educação a distância. O ensino de ciências jurídicas e língua portuguesa já possuem aplicações bastante fundamentadas. Em 2006 foi lançado o projeto wikiversidade, ainda em fase experimental. Trata-se de um grande projeto de ensino colaborativo mediado pela internet com várias aplicações inclusive o nível superior.

Ensino jurídico a distância

O ensino jurídico a distância é o ensino da ciência do Direito a Distância, ou a aplicação da educação a distância à esta ciência.

O ensino jurídico por transmissão de imagens via satélite é largamente utilizado no Brasil por empresas de ensino jurídico, que erigem canais de TV digital via satélite para transmitir aulas para todo o território. Estas aulas tem o objetivo principal de preparação para concursos públicos, sendo uma área comercialmente lucrativa, visto que o ensino jurídico nas universidades nem sempre é de bom nível.

O ensino jurídico a distância é pouco utilizado pelas universidades brasileiras como alternativa e auxílio na formação dos estudantes para a vida prática profissional. É inegável a vantagem que existiria na associação de universidades públicas e particulares para a produção e distribuição de conteúdo jurídico.

No Brasil, uma das primeiras universidades a oferecer graduação em direito nesta modalidade é a Unisul.[carece de fontes?]

Língua portuguesa

O professor Sérgio Guidi foi um dos pioneiros no ensino a distância público no Brasil.[11] De 1988 a 1993 o professor de Língua Portuguesa da Universidade Católica de Santos, em São Paulo, manteve cursos de atualização em Português Instrumental a Distância. Destinava-se a profissionais que tinham na língua portuguesa ferramenta de trabalho mas, em razão da ocupação laboriosa não podiam frequentar uma escola regular.

Através do sistema MINITEL, que no Brasil era chamado videotexto, dez capítulos de atualização na língua portuguesa foram criados como: grafia correta de palavras, acentuação gráfica, uso correto de expressões. Certificados eram emitidos para todo o país. Na Universidade Católica a elaboração dos conteúdos ficava a cargo do Laboratório de Telemática, fechado em 1995 pelo então diretor da Faculdade de Comunicação, professor Marco Antonio Batan.

Referências

  1. ↑ Decreto Federal nº 5.773/06 (Brasil). Acesso em 04/09/2011.
  2. ↑ Decreto Federal nº 6.303/07 (Brasil). Acesso em 04/09/2011.
  3. ↑ Portaria Normativa MEC nº 1/07 (Brasil). Acesso em 04/09/2011.
  4. ↑ Decreto Federal nº 5.622/05 (Brasil). Acesso em 04/09/2011.
  5. ↑ Notícia veiculada no Ministério da Educação de Portugal. Acesso em 04/09/2011.
  6. ↑ EaD no Portal do Cidadão português. Acesso em 04/09/2011.
  7. ↑ NETO, Francisco José da Silveira Lobo. Educação a Distância: Regulamentação, Condições de Êxito e Perspectivas. UNESP, 1998. Acesso em 04/09/2011.
  8. ↑ Jacques Delors in Os Quatro Pilares da Educação. 1996. Acesso em 04/09/2011.
  9. ↑ UNESCO in The Four Pillars of Education (texto em inglês). 1999. Acesso em 04/09/2011.
  10. ↑ Matte, Ana Cristina Fricke (2008). «Análise Semiótica da Sala de Aula no Tempo de EaD». Revista Tecnologias na Educação. Página visitada em 21 de fevereiro de 2010.
  11. ↑ Sérgio Guidi (26 de julho de 2000). Movimento Nacional em Defesa da Língua Portuguesa. Página visitada em 23 de dezembro de 2007.

Notas

  1. ↑ Exemplos de uso desta grafia constam em diversas fontes, no Brasil e em Portugal[1][2][3][4][5][6].

 

Ver também

  • e-learning
  • Universidade Aberta
  • M-Learning
  • Wikiversidade
  • Intercâmbio

Entidades

  • Cederj
  • Educartis
  • Escola Nacional de Administração Pública
  • Centro de Difusão de Tecnologia e Conhecimento
  • Formedia

Ferramentas

  • AdaptWeb
  • TelEduc
  • Amadeus lms
  • Formare
  • Moodle
  • iTutor
  • Ambiente virtual de aprendizagem
  • Second Life
  • Blackboard
  • Chamilo

Leituras Adicionais

  • Fredric M. Litto e Marcos Formiga (org.). Educação a distância: o estado da arte. São Paulo: Pearson Education, 2009. 480 p. ISBN 978-85-7605-197-8
  • Carmem Maia e João Mattar. ABC da EaD: a educação a distância hoje. São Paulo: Pearson Education, 2007. 160 p. ISBN 978-85-7605-157-2
  • Ruth Colvin Clark , Richard E. Mayer. e-Learning and the Science of Instruction: Proven Guidelines for Consumers: and Designers of Multimedia Learning. New York: Pfeiffer, 2007. 496 p. ISBN 978-0-7879-8683-4
  • Marco Silva (org.). Educação Online: teorias, práticas, legislação, formação corporativa. São Paulo: Loyola, 2003. 514 p. ISBN 85-15-02822-0

fonte.wikipedia

Software

 

Sistema Integrado de Aprendizagem de Produtos e Serviços - Sinapse (acrônimo) é o nome de uma metodologia de treinamento em EAD sob gestão da Universidade Corporativa Banco do Brasil - Unibb, que foi concebida utilizando a tecnologia Wiki. É um ambiente colaborativo de construção de conhecimento sobre os produtos e serviços do Banco do Brasil. O objetivo da metodologia é oferecer capacitação em produtos e serviços ao público interno.

Índice

  • 1 Premissas
  • 2 Software
  • 3 Definições do ambiente
    • 3.1 Orientações gerais
    • 3.2 Estruturação em quatro camadas
      • 3.2.1 Primeira camada
      • 3.2.2 Segunda camada
      • 3.2.3 Terceira camada
      • 3.2.4 Quarta camada
    • 3.3 Tipos de artigos
      • 3.3.1 Artigos de capacitação
      • 3.3.2 Artigos enciclopédicos
      • 3.3.3 Artigos informativos
      • 3.3.4 Artigos validados
    • 3.4 Principais categorias
      • 3.4.1 Categoria:Artigos enciclopédicos
      • 3.4.2 Categoria:(áreas gestoras)
      • 3.4.3 Categoria:Artigos de capacitação
        • 3.4.3.1 Categoria:Aplicação
        • 3.4.3.2 Categoria:Captação
        • 3.4.3.3 Categoria:Serviços e processos
  • 4 Programas pilotos
    • 4.1 Características do instrumento
    • 4.2 Dados sócio-demográficos
      • 4.2.1 Gênero
      • 4.2.2 Escolaridade
      • 4.2.3 Local de trabalho
      • 4.2.4 Tempo na função atual
    • 4.3 Avaliação global do curso
    • 4.4 Características do instrumento
    • 4.5 Dados sócio-demográficos
      • 4.5.1 Gênero
      • 4.5.2 Escolaridade
      • 4.5.3 Local de trabalho
      • 4.5.4 Tempo na função atual
    • 4.6 Avaliação global do curso
  • 5 Ver também
  • 6 Ligações externas

Premissas

As premissas que nortearam a criação do Sinapse foram garantir agilidade de atendimento às demandas de capacitação nos diversos produtos e serviços do BB e proporcionar maior autonomia para as Diretorias e Unidades do Banco.

Software

O Sinapse foi desenvolvivo no MediaWiki, que é um software wiki escrito em PHP utilizando sistemas de gestão de base de dados PostgreSQL. Está licenciado sob GNU GPL, porém tem acesso protegido por firewall corporativo.

Definições do ambiente

Orientações gerais

O Sinapse adota, em linhas gerais, as políticas oficiais , as diretrizes, o Livro de estilo e as recomendações da Wikipedia lusófona.

Estruturação em quatro camadas

O ambiente está estruturado numa lógica em quatro camadas de conteúdo.

Primeira camada

É referente à Página principal, editada exclusivamente pela Unibb com ligação para os portais de cada área da Organização.

Segunda camada

É referente aos Portais de cada Área, editados exclusivamente pelas respectivas áreas, com ligação para os artigos de capacitação ou enciclopédicos sobre os seus produtos ou serviços.

Terceira camada

É referente aos artigos de capacitação nos diversos produtos ou serviços da Empresa, com edição privativa das respectivas áreas gestoras e aos artigos enciclopédicos relacionados aos assuntos do Banco, editáveis por qualquer funcionário.

Quarta camada

É referente aos separadores Discussão de cada artigo de capacitação, os quais são destinados aos questionamentos e colaboração de todos os funcionários. Aqui se concretiza a construção coletiva do conhecimento.

Tipos de artigos

Artigos de capacitação

  • Cada produto, serviço ou processo tem um artigo próprio, chamados "Artigos de capacitação".
  1. Na primeira linha do artigo de capacitação consta a competência profissional pressupostamente atendida pelo artigo.
  2. Em seguida, consta a descrição do objetivo geral de aprendizagem, ou seja, o que se espera que o funcionário aprenda em relação ao produto ou serviço em questão, após a interação com o ambiente.
  3. Em seguida, uma ligação para os normativos internos do Banco do Brasil.
  4. Em seguida, uma ligação para o guia de elaboração da wikimedia.
  5. Em seguida, vêm as seções, que são criadas pelas áreas gestoras, segundo cada produto ou serviço ou processo. Por default, intepõe-se aqui o índice das seções, ou dos itens como são chamadas no ambiente Sinapse.
  6. Os quatro últimos itens do artigo de capacitação são pré-definidos pela Unibb. São eles: " Informações da concorrência ", " Casos de Sucesso ", "Opções de capacitação" e " Avaliação de aprendizagem ".
  7. Os artigos de capacitação são editados pelas áreas gestoras ( Sysop ), enquanto os usuários (funcionários da rede de agências e órgãos estaduais) podem editar as abas de discussão e os artigos enciclopédicos.

Artigos enciclopédicos

  • Também podem ser criados "Artigos enciclopédicos" com definições utilizadas no contexto do trabalho no Banco, que seguirão padrões estipulados pelo conjunto dos funcionários, a partir de modelo proposto pela Unibb.

Artigos informativos

  • São artigos do Domínio principal que esclarecem algum aspecto específico do ambiente ou artigos do Domínio "Ajuda:".

Artigos validados

São os Artigos de capacitação que foram validados pela Unibb, isto é, aqueles que estão prontos para que funcionários funcionários realizem o treinamento e sejam automaticamente cadastrados em seu currículo funcional (os artigos são incluídos na categoria "Cadastrável").

Principais categorias

Categoria:Artigos enciclopédicos

Categoria:(áreas gestoras)

Categoria:Artigos de capacitação

Categoria:Aplicação
Categoria:Captação
Categoria:Serviços e processos

Programas pilotos

O Sinapse foi testado com dois produtos do BB: Depósito a prazo e Consórcio de Imóveis. Veja o resultado das avaliação:

Consórcio de imóveis (321 respondentes)

Características do instrumento

O instrumento de avaliação busca avaliar nas categorias:

  1. processo de aprendizagem;
  2. ambiente eletrônico;
  3. procedimento de ensino;
  4. apoio; e
  5. resultados e aplicabilidade.

O questionário é composto por 32 itens, associados a uma escala de 10 pontos, onde 1 representa "não concordo" e 10 representa "concordo totalmente".

Dados sócio-demográficos

Gênero
Masculino - 67,1%
Feminino - 32,9%
Escolaridade
Pós-graduação - 27,3%
Graduação - 44,8 %
Ensino médio - 27,6%
Ensino fundamental - 0,3%
Local de trabalho
Rede de agências - 78,8%
Rede de apoio - 11,4%
Unidades estratégicas - 5,4%
Unidades táticas - 4,4%
Tempo na função atual
Menos de 1 ano - 22,3%
1 a 3 anos - 55,0%
4 a 6 anos - 15,2%
7 a 9 anos - 5,3%
10 anos ou mais - 2,2%

Avaliação global do curso

A média global foi 8,06, apontando que os treinandos se mostraram satisfeitos com o treinamento. Veja a tabela:

Categorias Média geral
Processo de aprendizagem 8,48
Ambiente eletrônico 8,21
Resultados e aplicabilidade 8,14
Procedimetos de ensino 8,12
Apoio 7,44
Avaliação geral 8,06

Depósito a prazo (195 respondentes)

Características do instrumento

O instrumento de avaliação buscou avaliar nas categorias:

  • ambiente eletrônico;
  • procedimento de ensino;
  • processo de aprendizagem;
  • apoio; e
  • resultados e aplicabilidade.

O questionário foi composto por 32 itens, assossiados a uma escala de 10 pontos, onde 1 representava "não concordo" e 10 representava "concordo totalmente".

Dados sócio-demográficos

Gênero
Masculino - 68,41%
Feminino - 31,6%
Escolaridade
Pós-graduação - 32,7%
Graduação - 45,9 %
Ensino médio - 21,4%
Local de trabalho
Rede de agências - 75,0%
Rede de apoio - 11,7%
Unidades estratégicas - 7,7%
Unidades táticas - 5,6%
Tempo na função atual
Menos de 1 ano - 25,0%
1 a 3 anos - 49,0%
4 a 6 anos - 14,8%
7 a 9 anos - 6,1%
10 anos ou mais - 5,1%

Avaliação global do curso

A média global foi 8,15, apontando que os treinandos se mostraram satisfeitos com o treinamento. Veja a tabela:

Categorias Média geral
Processo de aprendizagem 8,44
Ambiente eletrônico 8,13
Resultados e aplicabilidade 8,45
Procedimetos de ensino 8,12
Apoio 7,50
Avaliação geral 8,15

Ver também

Educação a distância

Ligações externas

  • Universidade Corporativa Banco do Brasil

fonte.wikipedia

Software

 

Sistema de informação de gestão ou sistema de informações gerenciais (SIG; do inglês, management information system—MIS) é um sistema de informação, tipicamente baseado em computadores, utilizado no seio de uma organização.[1] A WordNet descreve um sistema de informação como "um sistema que consiste na rede de canais de comunicação numa organização".[2]

Um sistema de informação é composto por todos os componentes que recolhem, manipulam e disseminam dados ou informação. Incluem-se tipicamente hardware, software, pessoas, sistemas de comunicação como linhas telefónicas, e os dados propriamente ditos. As actividades envolvidas incluem a introdução de dados, processamento dos dados em informação, armazenamento de ambos, e a produção de resultados, como relatórios de gestão.

Como área de estudo é tipicamente referida como administração ou gestão de tecnologias de informação. O estudo de sistemas de informação é vulgarmente uma disciplina de administração e gestão comercial, e envolve frequentemente desenvolvimento de software, mas também se distingue concentrando-se na integração de sistemas computadorizados mediante os objectivos da organização. Esta área de estudo não deve, no entanto, ser confundida com ciência da computação, sendo esta mais teórica e matemática por natureza, ou com engenharia dos computadores.

No contexto empresarial, os sistemas de informação ajudam os processos de negócio e operações, tomadas de decisão e estratégias competitivas.

Índice

  • 1 Papel de suporte funcional
  • 2 Papel de suporte à decisão
  • 3 Papel de suporte estratégico
  • 4 Papel de monitorização de desempenho
  • 5 Os SIG como barreira de entrada
  • 6 Desenvolvimento histórico
  • 7 Perspectivas de evolução
  • 8 Associações e grupos
  • 9 Ver também
  • 10 Referências

Papel de suporte funcional

A função de suporte aos processos e operações de negócio é a mais básica: envolve recolhimento, registo, armazenamento e pré-processamento de dados. Os sistemas de informação ajudam os processos e operações, tornando-os mais ágeis, baratos, padronizados e rastreáveis:

  • registrando e armazenando dados das vendas, compras, investimentos, salários e outra contabilidade;
  • processando os registros de contabilidade em previsões de lucro, balanço, relatórios de gestão, e outras formas de informação financeira;
  • registrando e armazenando dados do inventário, trabalho em curso, reparação e manutenção de equipamento, cadeia de fornecimento, e outros registros de produção/operação;
  • processando estes registros de operações em agendas de produção, controladores, sistemas de inventário, e sistemas de monitorização da produção;
  • registrando e armazenando dados sobre o pessoal, salários, histórico de contratações, e outros registros de recursos humanos;
  • processando estes registos em relatórios de despesas com pessoal, e relatórios baseados em desempenho;
  • registrando e armazenando dados de mercado, perfis de cliente, histórico de compras por cliente, estudos de mercado, publicidade, e outros registos de marketing;
  • processando estes registros de marketing em relatórios de elasticidade publicitária, planos de marketing, e relatórios de vendas;
  • registrando e armazenando dados de análise dos competidores, industriais, objectivos empresariais, e outros registros de gestão estratégica;
  • processando estes registros de gestão estratégica em relatórios de trocas industriais, quotas de mercado, planejamento de objetivos, e modelos de portfolio;
  • usando os pontos supracitados para implementar, controlar e monitorizar planos, estratégias, tácticas, novos produtos, novos modelos de negócio, ou novos investimentos.

Previamente a um investimento em tecnologia de informação, torna-se necessário alinhar quais as informações que serão necesárias. Essas informações deverão estar alinhadas com os objetivos da organização, e só assim elas podem agregar valor para os tomadores de decisão.

Papel de suporte à decisão

A função de suporte à elaboração de decisões de negócio vai um passo mais à frente. É parte integrante na tomada de decisões. Permite aos utilizadores formular questões "E se..?": E se aumentarmos o preço em 5%? ; E se aumentarmos o preço em 10%? ; E se reduzirmos o preço em 5%? ; E se aumentarmos o preço em 10% agora, e reduzi-lo em 5% em três meses? Também permite aos utilizadores ligar com contingências: E se a inflação aumenta em 5% (em vez dos 2% previstos), o que fazer? Que fazer se formos confrontados com a greve ou uma nova ameaça da concorrência?

A ferramenta de elaboração de decisões mais básica e versátil é a folha de cálculo, mas estas são, por norma, muito pouco amigáveis em termos de interface. Programas mais sofisticados costumam incorporar ferramentas de tomadas de decisão estatísticas como análise de sensibilidade, análise Monte Carlo, análise de risco, análise de quebra e análise de Bayes. Se, por exemplo, se encontra a utilizar um sistema de informação para decidir sobre a introdução de um novo produto, o programa deve incorporar ferramentas como análise logit, análise B.C.G., análise conjunta, análise de margem de contribuição, escalonamento multi-dimensional, análise multifactoral G.E., análise de factor, análise de cluster, análise discriminativa, quality function deployment, regressão preferencial, e tradução preferência-grau.

Papel de suporte estratégico

Os sistemas de informação podem ajudar no posicionamento competitivo de uma empresa. Distinguem-se três níveis de análise.

  1. Os suportes na ajuda ao controlo da cadeia interna. Estes são os mais recentes, os mais pragmáticos e encontram-se ao alcance do gestor. São soluções de redução de custo e gestão do desempenho. Indicam-se sob o nome "análise de fluxo de negócio" (BWA - business wrkflow analysis) ou "sistemas de gestão de negócio p2p". Redes de ferramentas asseguram o controlo do conjunto de funções da empresa; o efeito em tempo real dos custos de disfunções perturba a contabilidade, avaliação e relatório dos resultados financeiros, articulados na avaliação e nos relatórios de controlo de qualidade.
  2. Qualquer empresa de sucesso tem uma (ou duas) funções que desempenha melhor que a competição: competência de núcleo. Se uma competência de núcleo de uma empresa lhe oferece uma vantagem no mercado a longo prazo, é designada de vantagem competitiva persistente. Para uma competência de núcleo atingir este nível terá que se tornar difícil de imitação, única, persistente, superior à concorrência, e aplicável a múltiplas situações. Alguns exemplos de características empresariais que podem constituir uma vantagem competitiva persistente são: melhor qualidade do produto, contratos de distribuição extensíveis, equidade acumulada no ramo e reputação positiva da empresa, técnicas de produção de baixo custo, patentes e direitos de autor, monopólios protegidos pelo estado, e melhores equipas de funcionários e gestores. A lista de características de uma vantagem competitiva persistente é muito extensa. No entanto existem alguns comentadores que defendem que no mundo da concorrência rapidamente adaptativa, nenhuma dessas vantagens consegue persistir por um longo prazo. Estes defendem que a única vantagem competitiva verdadeiramente persistente é construir uma organização tão alerta e ágil que consiga sempre detectar vantagens imediatamente, independentemente das alterações no mercado.
  3. Os sistemas de informação muitas vezes ajudam e ocasionalmente constituem estas vantagens competitivas. A rápida velocidade das mudanças tornou crítico o acesso à informação pontual e actual em ambientes competitivos. Os sistemas de informação, tal como os sistemas de rastreio de ambiente comercial, ajudam praticamente todas as vantagens competitivas. Um exemplo é a Wal-Mart, que usavam uma extranet para integrar toda a sua cadeia de fornecimento. Esta utilização dos sistemas de informação deu a Sam Walton uma vantagem competitiva durante duas décadas. Outro exemplo é a Dell Computer, que usava a Internet para comercializar PC's à medida. Michael Dell ainda beneficia desta promoção de baixo custo e técnica de distribuição. Outros exemplos são eBay, Amazon.com, Federal Express, e análise de fluxo de negócios Oberon-bwa.

Papel de monitorização de desempenho

Os SIG não se resumem à análise de dados e estatísticas:[3] precisam ser utilizados como ferramenta de administração por objectivos (MBO - management by objectives), e ajudam a:

  • estabelecer objectivos relevantes e quantificados
  • monitorizar resultados e desempenhos (taxas de sucesso)
  • enviar alertas, em alguns casos diariamente, aos gestores de cada nível da organização, em todas as variações entre resultados e objectivos pré-estabelecidos e orçamentos.

Os SIG como barreira de entrada

Uma vantagem estratégica importante é a "barreira de entrada". Existem várias formas de uma companhia, tendo investido em tecnologias de informação, poder recuperar o investimento para criar, aumentar ou manter barreiras de entrada.

  1. Aumento do investimento nas TI que suporte a competência de núcleo. As empresas de sucesso tendem a ter uma ou duas competências de núcleo que desempenham melhor que a concorrência. Pode ser qualquer coisa, desde o desenvolvimento de um novo produto a um serviço de clientes. A tecnologia de informação é muitas vezes uma entrada importante nesta competência de núcleo. Este investimento pode constituir uma grande barreira de entrada;
  2. Aumento do investimento nas TI em redes de cadeia de fornecimento. As empresas que constam como parte de um sistema de fornecimento integrado estabeleceram relações de segurança com os fornecedores, o que garante um decréscimo nos prazos de entrega, entregas sem problemas e fornecimento assegurado. Também pode incluir descontos e tratamento personalizados. A incapacidade das novas empresas em suportar estes sistemas de gestão de cadeia de fornecimento e inventariado pode constituir uma grande barreira de entrada;
  3. Aumento do investimento nas TI na gestão dos canais de distribuição. Tal como as redes de fornecimento, os investimentos nos sistemas de gestão de canais de distribuição pode assegurar prazos de entrega menores, entregas livres de problemas, e tratamento preferencial. O investimento nesta tecnologia, e a experiência adquirida na aprendizagem de como utilizá-la, pode ser uma importante barreira de entrada. Quando o sistema de gestão de canais de distribuição é exclusivo pode oferecer à empresa algum controlo sobre os retalhistas envolvidos.
  4. Aumento do investimento nas TI em equidade no ramo. Muitas vezes as empresas investem quantias avultadas em publicidade, que é facilitada pelo investimento em sistemas de informação de marketing e sistemas gestão de relações de clientes (CRM). Um nome de um produto que não seja apelativo é uma barreira de entrada formidável;
  5. Aumento do investimento nas TI em processos de produção (1). Os sistemas de informação tornaram-se uma necessidade na gestão de processos de produção extensos. Os sistemas automatizados são a forma mais eficiente em termos de custos de organizar processos de produção em grande escala. Estas empresas podem obter mais facilmente economias de escala na promoção, compra, e produção; economias de escopo na distribuição e promoção; sobrecarga reduzida na alocação por unidade; redução dos tempos mortos. Esta vantagem absoluta nos custos pode ser uma importante barreira de entrada;
  6. Aumento do investimento nas TI em processos de produção (2). Estes investimentos permitem à empresa maior flexibilidade no nível global de produção. Michael Porter defende que economias de escala são barreiras de entrada, lado a lado com as vantagens absolutas de custos que oferecem. Isto porque, uma companhia que produz a um nível da curva de custo médio de longa duração, onde existam economias de escala, tem potencial para obter reduções de custos no futuro, e este potencial constitui uma barreira de entrada;
  7. Aumento das vantagens da curva de aprendizagem pela experiência com as TI. Assim que uma empresa ganha experiência utilizando TI, torna-se familiarizada com uma série de práticas mais ou menos conhecidas para outras empresas na indústria. Empresas externas à indústria não estão, geralmente, familiarizadas com os aspectos específicos destes sistemas. As novas empresas terão este factor como desvantagem se não redefinirem as práticas industriais e exceder as empresas existentes;
  8. Aumento do investimento nas TI nas personalização massiva dos processos de produção. A tecnologia de controlo de produção pode facilitar a personalização colaborativa, adaptativa, transparente, ou cosmética. Esta flexibilidade aumenta as margens, satisfação do cliente, e pode ser uma importante barreira de entrada;
  9. Aumento do investimento nas TI em desenho assistido por computador (1). Os sistemas CAD facilitam a rapidez do desenvolvimento e introdução de novos produtos, o que pode potenciar diferenças proprietárias nos mesmos. A diferenciação do produto pode ser uma barreira de entrada;
  10. Aumento do investimento nas TI em desenho assistido por computador (2). As diferenças proprietárias dos produtos podem ser usadas para criar incompatibilidades com os produtos da concorrência (como qualquer utilizador de computador sabe). Estas incompatibilidades aumentam os custos nas trocas de clientes. Estes custos, quando elevados, são uma barreira de entrada de grande valor (veja-se o caso da Microsoft, por exemplo);
  11. Aumento do investimento nas TI em comércio electrónico (E-commerce). Os websites das empresas podem ser personalizados segundo os interesses dos clientes, expectativas e necessidades comerciais. Também podem ser utilizados para criar a sensação de comunidade. Ambos tendem a aumentar a fidelidade do cliente, que constitui uma importante barreira de entrada;
  12. Aumento do investimento nas TI em estabilidade. As empresas tecnologicamente sofisticadas com múltiplos pontos de contacto entre consumidores, fornecedores, e outros parecem ser mais estáveis. Esta aparência de estabilidade pode constituir uma barreira de entrada, especialmente verdade nos serviços financeiros.
  13. O simples facto que o investimento nas TI requer fundos torna-se uma barreira de entrada. Tudo o que aumentar os requisitos de capital torna-se uma barreira de entrada.

Desenvolvimento histórico

O papel dos sistemas de informação de negócios alterou-se e expandiu-se durante as últimas quatro décadas.

Na década de 1950-1960, os "sistemas eletrônicos de processamento de dados" apenas podiam ser adquiridos pelas maiores organizações. Eram usados para registrar e armazenar dados de arquivo como artigos jornalísticos e jornais especializados - papel de suporte às operações.

Pela anos 1960, os "sistemas de informação de gestão" foram usados para gerar uma gama limitada de relatórios pré-definidos, incluindo relatórios de lucro (eram designados por P & L's na altura), balanços e relatórios de vendas. Tentava-se que atuassem no papel de suporte às tomadas de decisão, embora ainda não fossem capazes.

Pela anos 1970, os "sistemas de suporte à decisão" foram introduzidos. Eram interactivos no sentido de que o utilizador podia escolher numerosas opções e configurações. Não só o utilizador podia personalizar os resultados, mas também configurar os programas para as suas necessidades específicas. No entanto, isso teve o seu custo: como parte do acordo de aluguel do sistema, ter-se-ia que pagar a um técnico de sistemas IBM para estar permanentemente no local.

A inovação nos anos 1980 foi a introdução da computação descentralizada. Em oposição a um único (e grande) computador para toda a empresa, vários PC's podiam ser espalhados pela organização, o que significava que não era mais necessário enviar o trabalho para o departamento de computadores para processamento (em fila de espera) e esperar pelos técnicos para realizar o procedimento: cada utilizador tinha o seu próprio computador e podia personalizá-lo segundo as suas necessidades. Muitos deles tinham que lidar e aprender os controversos protocolos do DOS, funções da BIOS e scripts batch de DOS.

Conforme as pessoas iam-se sentindo confortáveis na manipulação dos computadores, descobriam também as potencialidades que os seus sistemas lhes ofereciam. Os computadores, em vez de criarem uma sociedade sem papel, como foi previsto, produziram montanhas de papel, na sua maioria sem qualquer valor. Toneladas de relatórios foram gerados apenas porque era possível. Esta sobrecarga de informação foi reduzida algures nos anos 1980 com a introdução dos "sistemas de informação executiva". Estes refinaram o processo, oferecendo ao executivo exactamente aquilo que procuravam, e apenas isso.

Os anos 1980 também viram nascer a primeira aplicação comercial de técnicas de inteligência artificial na forma dos "sistemas inteligentes". Estes programas podiam gerar conselhos dentro de uma área muito limitada. A promessa do suporte à tomada de decisão, inicialmente tentada pelos sistemas de informação de gestão dos anos 1960 tinham, passo a passo, dado os seus frutos.

Os anos 1990 trouxeram a introdução dos "sistemas de informação estratégicos", devido em grande parte à evolução da gestão estratégica pelos académicos, como M. Porter, T. Peters, J. Reise, C. Markides, e J. Barney nos anos 1980. A vantagem competitiva tornou-se um assunto activamente discutido no contexto da gestão e as empresas de software ansiavam oferecer as ferramentas.

O papel dos sistemas de informação no negócio tinha-se agora expandido, incluindo o suporte estratégico. O último passo foi a comercialização da Internet, e o crescimento das intranets e extranets na virada do século.

Perspectivas de evolução

Na próxima década, prevê-se que os princípios de reengenharia de M. Hammer sejam incorporados ainda mais nos sistemas de informação de negócio. Hammer afirmou que melhor que orientar uma empresa em especialidades funcionais (como produção, contabilidade, marketing, etc.) e observando as tarefas que cada função desempenha, era necessário estudar todo o processo desde a aquisição dos materiais, até à produção, marketing e distribuição. A firma deveria ser, portanto, visualizada como uma séria de processos. Cada vez mais software irá seguir esta abordagem. Em última análise, irá existir um sistema de informação de negócio totalmente integrado, dentro do qual irá circular, transparentemente, todo o tipo de informação de negócio dentro da firma.

No seu livro Agenda, desenvolveu a idéia de incluir fornecedores e distribuidores. Toda a cadeia de fornecimento, desde as matérias primas até ao cliente, deviam ser vistos como um processo único. Por sua vez, não coincide com a teoria de M. Porters de uma cadeia de valor duas décadas antes. A diferença consiste em que Hammer incluiu formas de implementação que podem ser mais facilmente traduzidas em algoritmos de software para suportar extranets. Cada vez mais, os sistemas de informação para negócio irão orientar-se para o suporte a uma cadeia de valor, em oposição ao suporte empresarial. O modelo das ferramentas de software que representa esta nova tendência é a plataforma de suites "Sistemas de gestão empresarial p2p" também conhecidos como "gestão de fluxo de negócio" ou ainda "Oberon BWA".

No futuro, poderá chegar-se a um estado em que os sistemas se desloquem das extranets para a Internet. Os clientes serão considerados participantes integrados na cadeia de valor e terão o mesmo acesso ao sistema de informação que os fabricantes, fornecedores, distribuidores e facilitadores.

Associações e grupos

  • ISWorld
  • INFORMS
  • AIS

fonte.wikipedia

Software

 

DIKW é uma hierarquia informacional utilizada principalmente nos campos da Ciência da Informação e da Gestão do Conhecimento, onde cada camada acrescenta certos atributos sobre a anterior.

Características

Os seus componentes, em ordem crescente de importância e normalmente dispostos em um sistema de coordenadas cartesianas, são os seguintes:

  • Dados (Data) é o nível mais básico;
  • Informação (Information) acrescenta contexto e significado aos dados;
  • Conhecimento (Knowledge) acrescenta a forma como usar adequadamente a informação;
  • Sabedoria (Wisdom) acrescenta o entendimento de quando utilizá-los.

Desta forma, a hierarquia DIKW é um modelo teórico que se mostra útil na análise e no entendimento da importância e limites das atividades dos trabalhadores do conhecimento.

Ligações externas

  • Data, Information, Knowledge, and Wisdom (em inglês)

fonte.wikipedia

Software

 
A definição clássica de conhecimento.

A Gestão do Conhecimento, do inglês KM - Knowledge Management, é uma disciplina que tem suscitado cada vez mais atenção nas últimas décadas, tendo originado inúmeros trabalhos de investigação e investimentos cada vez mais significativos por parte das organizações que reconhecem a sua crescente importância.

Utilizando a gestão do conhecimento a empresa diminui os gastos em produtos e começa a investir em capital intelectual, o que tem um melhor custo-benefício, pois o maior capital que a empresa possui é o conhecimento de seus colaboradores. Os colaboradores quando são ouvidos e podem dividir suas opiniões, se sentem valorizados e trabalham com paixão. Dessa forma o trabalho flui com maior eficiência, qualidade e dedicação.

Índice

  • 1 Caracteristicas
  • 2 Vantagens oferecidas
  • 3 Objetivos
  • 4 Gestão do Conhecimento e Capital Humano nas Organizações
    • 4.1 Os recursos intangíveis entram em cena
    • 4.2 Estratégia de capital humano
      • 4.2.1 As mudanças acontecendo
      • 4.2.2 Processos Intensivos em Conhecimento
  • 5 Sistemas de Gerenciamento de conhecimento (Sistemas de gestão do conhecimento)
  • 6 Gestao do conhecimento no Japão
  • 7 Ver também
  • 8 Referências
  • 9 Ligações externas

Caracteristicas

A investigação na área da gestão do conhecimento está ligada a várias disciplinas, entre as quais, a gestão estratégica, a teoria das organizações, os sistemas de informação, a gestão da tecnologia e inovação, o marketing, a economia, a psicologia, a sociologia, etc.(Georg van Krogh, 2002)

A principal preocupação dos investigadores na área da gestão do conhecimento reside na busca da melhoria de desempenho das organizações através de condições organizacionais favoráveis, processos de localização, extracção, partilha e criação de conhecimento, assim como através das ferramentas e tecnologias de informação e comunicação.

De forma geral, acredita-se que uma boa prática de gestão do conhecimento influencia direta e indiretamente o bom desempenho organizacional e financeiro de uma organização.

A Gestão do conhecimento possui ainda o objetivo de controlar, facilitar o acesso e manter um gerenciamento integrado sobre as informações em seus diversos meios. Entende-se por conhecimento a informação interpretada, ou seja, o que cada informação significa e que impactos no meio cada informação pode causar de modo que a informação possa ser utilizada para importantes ações e tomadas de decisões.

Sabendo como o meio reage às informações, pode-se antever as mudanças e se posicionar de forma a obter vantagens e ser bem sucedido nos objetivos a que se propõe. Em uma definição resumida pode-se dizer que Gestão do Conhecimento é um processo sistemático, articulado e intencional, apoiado na geração, codificação, disseminação e apropriação de conhecimentos, com o propósito de atingir a excelência organizacional.

Vantagens oferecidas

Vários autores (Drucker, 1993; Davenport et al., 1996; Staples et al., 2001; Holsapple, 2008, etc.) afirmam que boas iniciativas e práticas de gestão do conhecimento contribuem para a sustentabilidade das vantagens competitivas das organizações que as empreendem.

Entre as diversas vantagens de uma boa gestão de conhecimento, reconhecem-se as seguintes:

  • Vantagem competitiva em relação à concorrência
  • Redução dos custos e tempo de produção e desenvolvimento de produtos
  • Rápida comercialização de novos produtos
  • Aumento do valor das ações
  • Maximização do capital intelectual/ativos intelectuais
  • Melhoria dos processos internos e maior fluidez nas operações
  • Processos de tomada de decisões mais eficientes e melhores resultados
  • Melhoria na coordenação de esforços entre unidades de negócios
  • Melhoria da prestação de serviços (agilidade), da qualidade dos produtos e da qualidade do serviço cliente

Objetivos

A gestão do conhecimento tem como objetivos:

  • Tornar acessíveis grandes quantidades de informação organizacional, compartilhando as melhores práticas e tecnologias;
  • Permitir a identificação e mapeamento dos ativos de conhecimento e informações ligados a qualquer organização, seja ela com ou sem fins lucrativos (Memória Organizacional);
  • Apoiar a geração de novos conhecimentos, propiciando o estabelecimento de vantagens competitivas.
  • Dar vida aos dados tornando-os utilizáveis e úteis transformando-os em informação essencial ao nosso desenvolvimento pessoal e comunitário.
  • Organiza e acrescenta lógica aos dados de forma a torná-los compreensíveis.
  • Aumentar a competitividade da organização através da valorização de seus bens intangíveis.

O conhecimento pode ser implícito (tácito) ou explícito.

Segundo Larry Prusak,[1] a unidade de análise do conhecimento não deve ser a organização, nem o indivíduo, mas sim grupos com contextos comuns.

Gestão do Conhecimento e Capital Humano nas Organizações

A economia da sociedade globalizada e interdependente traz mudanças radicais em termos do surgimento de uma nova sociedade, a sociedade da Era da Informação, que coloca o conhecimento como o ativo de produção mais importante do Terceiro Milênio.

Os recursos intangíveis entram em cena

A partir da década de 1980 passa a surgir uma intensa busca por uma nova concepção e visão da empresa. Nasce então o conceito de Capital Intelectual, como forma de evidenciar e potencializar a força dos recursos intangíveis.

Essa emergência traz uma consequente necessidade de mudança de paradigmas e enfoques para as organizações: a necessidade da revalorização do capital humano.

A grande transformação desta sociedade não é apenas o avanço tecnológico em si, mas sim como associar estes recursos tecnológicos a fatores humanos como criatividade, comprometimento e conhecimento a fim de agregar valor aos produtos e/ou serviços oferecidos pelas organizações.

Estratégia de capital humano

As mudanças acontecendo

Recursos tradicionais apenas proporcionam vantagens temporárias; O local do escritório perde importância na era digital;


As pessoas, o capital humano, torna-se fonte geradora de receita; a informação, ferramenta para a comunicação; e o relacionamento torna-se algo interativo e decorrente das redes pessoais. A gestão de uma organização precisa assim gerenciar seu capital humano e o conhecimento requerido e/ou produzido. Seu novo desafio é alinhar a gestão destes capitais intangíveis com o planejamento estratégico da organização, de forma que agreguem valor aos processos de negócio e criando vantagem competitiva para a organização.


Para elaborar a melhor estratégia de capital humano é preciso considerar três fatores:

  • Sistemas;
  • Os fatos certos;
  • Foco no valor


Sistemas: compreender como várias práticas e programas de capital humano (remuneração, treinamento, gestão de carreiras e supervisão) trabalham em conjunto para produzir os retornos esperados.

Os fatos certos: contabilidade precisa e detalhada dos atributos da força de trabalho, assim como das práticas de capital humano assim que elas são realmente implementadas.

Foco no valor : um foco inflexível em como o capital humano impulsiona importantes resultados de negócio – faturamento, lucros, retenção do cliente e qualidade.

Companhias que começam a agir cedo na identificação e na medição dos fatores importantes de capital humano, e no ajuste fino da estratégia de capital humano podem delinear vantagens competitivas significativas e duradouras.

 

Processos Intensivos em Conhecimento

Os processos intensivos de conhecimento estão, tradicionalmente, baseados na geração, conversão e nos fluxos dinâmicos de conhecimentos que envolvem seus processos de negócio.


São processos não estruturados caracterizados por forte dependência do conhecimento embutido nas pessoas e por conseqüência seu fluxo de eventos se estabelece de forma evolutiva e dinâmica, não podendo ser claramente definido. Apesar de contribuir agregando valor aos processos de negócio da organização, dificilmente apresentam métricas para avaliar o seu sucesso.


Existem na literatura diversas tentativas de definir Processo Intensivo em Conhecimento, como exemplo podem ser citados VON HAGEN et.al. (2005), DAVENPORT et al. (1996), DAVENPORT & PRUSAK (2000) e EPPLER (1999).


Dificuldade de Implantação As empresas enfrentam grandes dificuldades na implantação deste. Altos custos dificultam, e problemas na cultura organizacional da empresa, pois quando uma empresa (dono, gestores e funcionários) estão acostumados ao trabalho manual, ou a uma forma de trabalho, implantar outra cultura, automatizar ou qualquer quer seja a mudança, bate de frente a forma de trabalho que estão acostumados, e isso causa divergências e problemas. As pessoas tendem a se acomodar com um estilo de vida, e tira-las disso requer planejamento e tempo.[carece de fontes?] Por isso, a empresa deve planejar e estudar todos os possíveis erros, pois o que deveria ser um crescimento acaba se tornando um transtorno, ocasionando gastos desnecessários e prejuízos a instituição.[carece de fontes?]

Sistemas de Gerenciamento de conhecimento (Sistemas de gestão do conhecimento)


Os Sistemas de Gestão do Conhecimento (Knowledge Management Systems) são soluções de TI que amparam as iniciativas empresariais típicas de Gestão do Conhecimento como identificação, criação, apresentação e distribuição do conhecimento dentro do contexto corporativo. (MVL)

Os Sistemas de Gerenciamento de Conhecimento tem como importante objetivo proporcionar habilidades (a gerentes e organizações em geral) que apoiem a tomada de decisão, e consequentemente aumentem a vantagem competitiva da empresa.

Tais sistemas possuem como principal característica a coleta de dados, que posteriormente serão processados para que se obtenha um conjunto de relevante informações que serão agregadas e distribuidas em forma de conhecimento dentro da organização.

Gestao do conhecimento no Japão

O conceito de ba[2] foi introduzido em 1996 por Ikujiro Nonaka e Hirotaka Takeuchi (em seu livro onde esenvolveram a ideia sobre a chama espiral do conhecimento) , Noburo Konno. Desde então, exerce um papel fundamental sobre a maneira japonesa de criação de conhecimento, sendo que aos poucos esse conceito começa a fazer parte dos jargões utilizados na literatura especializada de KM (Knowledge Management), fora do arquipélago japonês. Sendo que a abordagem japonesa sobre os conceitos de KM se encontra distinta da norte-americana, essa fortemente orientada sobre as tecnologias de informação (IT oriented). Esses conceitos carregam forte significado da cultura japonesa e torna-se, muitas vezes, de difícil compreensão por meio da linguagem ocidental, utilizando termos únicos, claros, distintos e sem ambigüidades. Portanto, o presente artigo propõe a expressão Comunidades Estratégicas de Conhecimento como uma possível versão ocidental equivalente ao conceito de ba.

Ba é um ideograma kanji que, em sua parte esquerda representa a terra, a água fervente, o crescimento e, a parte direita, significa a capacidade de realização (enable). Um lado designa um potencial e o outro indica um tipo de motor ou um movimento que proporciona uma transformação. Qualifica-se como um good ba as situações relacionais que energizam as pessoas tornando-as criativas, dentro de uma interação positiva e dinâmica. A parte direita do ideograma refere-se à filosofia do yin e do yang ou da transformação permanente.

Um ba pode ser aberto a uma continuidade de interação junto a um tipo de atmosfera e de um ambiente que constitui um clima particular, ligado a um espaço e a um tempo compartilhado por uma comunidade (a shared space in motion ). Ikujiro Nonaka define o ba como um espaço partilhado para a emergência de relações. Esse espaço poderá ser físico (como um escritório ou outros locais de trabalho), mental (experiências compartilhadas, idéias ou ideais) ou toda a combinação dos dois. Para o autor, o que diferencia o ba das interações humanas ordinárias é o conceito de criação de conhecimento. O ba fornece uma plataforma que, dentro de uma perspectiva transcendental, integra toda a informação requisitada (…) ba é um contexto carregado de significado.

Então, nós consideramos ba como sendo um espaço compartilhado que serve como uma base para a criação de conhecimento. As trocas de dados, de informação, de opinião, de colaboração e de uma mobilização sobre um projeto, confrontado às necessidades e ao desconhecido convergem ao ba dentro das organizações. Para se produzir, a organização do vazio, dos espaços de tensão criativa e de relações lhe são favoráveis. O ba comporta, também, um tipo de indeterminação orientada, mas aberta, tacitamente vivida como um círculo de conivência. O ba não vem à realidade por decreto. Não é produzido pelo modelo do command and control próprio da gerencia piramidal tradicional. Ao contrário é ajustado por atores voluntários dentro de um ambiente energize e estimule com atenção ao respeito mútuo. O ba é fundamentalmente subjetivo e relacional, envolvendo os atores pelo fato de ser orientado pelo interesse e por não existirem fortes conflitos nos relacionamentos humanos.


fonte wikipedia

Software

 

Inteligência Organizacional é a capacidade coletiva disponível em uma organização para identificar situações que justifiquem iniciativas de aperfeiçoamento, conceber, projetar, implementar e operar os sistemas aperfeiçoados, utilizando recursos intelectuais, materiais e financeiros.

O conceito data do final da década de 1960, mas esta definição, apresentada por Couto e Macedo-Soares[1], tem como base o conceito do senso comum que reconhece a inteligência como a capacidade de identificar e de resolver problemas novos.

Estratégias para desenvolver a Inteligência Organizacional interessam diretamente a praticantes, consultores, pesquisadores e estudantes das áreas de Administração, Planejamento, Gerência de projetos, Gerência de operações, Comunicação organizacional, Ciência da informação e Tecnologia da informação, entre outras.

O tema apresenta interesse para organizações produtoras da Agropecuária, da Indústria e do Setor de Serviços, sejam elas empresas da iniciativa privada ou entidades do setor público.

A questão geral da inteligência é amplamente discutida por numerosos estudiosos[2]. Em Brown encontram-se vários estudos sobre o que o autor chama Inteligência Organizacional Computadorizada[3]. Segundo Choo, pode-se dizer que uma organização é "inteligente" quando ela identifica, captura, disponibiliza e usa de forma extensiva a informação e o conhecimento[4].

A identificação dos recursos intelectuais facilita a proposição de estratégias para desenvolver a Inteligência Organizacional.

Índice

  • 1 Recursos intelectuais
  • 2 Organização produtora
  • 3 Comunicação organizacional
  • 4 Benefício dos recursos intelectuais
  • 5 Ver também
  • 6 Referências

Recursos intelectuais

Os principais responsáveis pelo processo de aperfeiçoamento da organização são os administradores, executivos, planejadores, projetistas e gerentes. Estes agentes executam atividades eminentemente intelectuais.

Os recursos intelectuais são as ferramentas básicas que os agentes do processo de aperfeiçoamento não podem deixar de usar, se desejam executar suas tarefas com proficiência:

  • as informações gerenciais necessárias para apoiar a tomada de decisões adequadamente fundamentadas;
  • os conhecimentos de interesse sobre os processos que a organização precisa realizar, indispensáveis para definir as informações relevantes para gerenciá-la;
  • a linguagem organizacional, que descreve a realidade da organização, reflete os conhecimentos por ela dominados, permite expressar as informações relevantes e dá suporte à Comunicação Organizacional.

Organização produtora

Coerente com seu conceito de Inteligência Organizacional, Couto e Macedo-Soares apresentam uma definição abrangente para organização produtora:

Organização produtora de bens ou serviços é um sistema de pessoas que utilizam, deliberadamente, recursos intelectuais, materiais e financeiros, para desenvolver visões e estratégias, conceber, projetar, implementar e operar sistemas capazes de receber insumos do ambiente externo, executar processos e disponibilizar produtos que atendam necessidades de terceiros.

Essa definição é abrangente porque permite estudar quaisquer organizações produtoras, pertençam elas à agropecuária, à indústria de transformação ou, ainda, ao setor de serviços.

Comunicação organizacional

A definição chama a atenção para o fato de que qualquer organização é sempre um sistema de duas ou mais pessoas. Sem participação coletiva não se pode falar em organização.

As pessoas desenvolvem suas idéias e as comunicam às partes interessadas, sob a forma de visões, estratégias, planos, programas, projetos e outras manifestações. No estágio seguinte, as palavras transformam-se em iniciativas e ações coletivas, que caracterizam a organização.

Por tudo isso, a Comunicação Organizacional é uma competência essencial que as organizações modernas necessitam dominar, de modo a melhor compartilhar com os públicos interno e externo suas intenções e realizações.

Para entender como as pessoas articulam suas idéias, tomam decisões para implementar ações com o objetivo de aperfeiçoar a configuração, a estrutura e a conjuntura da organização é preciso ter em mente que conhecimentos e informações são representações mentais dos objetos sobre os quais elas têm interesse, sejam estes objetos concretos ou abstratos.

Por isso, a utilização de uma linguagem adequada é indispensável para desenvolver essas representações e colocá-las em comum, isto é, comunicá-las às partes interessadas (os stakeholders), de modo que ações eficazes e eficientes possam ser implementadas a partir das idéias.

Usuários de alto nível da Comunicação Organizacional podem não dispor de tempo nem de treinamento para descobrir a causa do desconforto que eventualmente experimentam, quando lhes são passadas Informações pouco claras. O problema é da Linguagem Organizacional, mas cada usuário tenderá a atribuí-lo a uma possível deficiência de Conhecimento que somente ele próprio possui, e não a uma limitação da organização como um todo. Assim, o desconforto pode provocar ansiedade, que irá potencializar decréscimo de desempenho, este já prejudicado pela baixa qualidade das Informações.

Benefício dos recursos intelectuais

E ser também um tipo de recrutamento do básico da ABNT, constatado pelo IESP de Campinas, São Paulo. Couto e Macedo-Soares desenham três estratégias concatenadas, para enriquecer a Linguagem, explicitar o Conhecimento e desenvolver sistemas de Informações aderentes à realidade, um tripé sobre o qual pode ser apoiado o esforço para iluminar a Comunicação Organizacional e amplificar a Inteligência Organizacional:

A primeira estratégia propõe o enriquecimento da Linguagem Organizacional para que esta apóie adequadamente a descrição dos processos de interesse para a organização e a identificação das informações relevantes.

  • Para facilitar o enriquecimento da linguagem organizacional é indicada uma metalinguagem inédita, uma metodologia que facilita a identificação de deficiências de linguagem decorrentes de omissões ou sobreposições de conceitos básicos para representar itens essenciais da organização. Omissões respondem por perda de informação e sobreposições acarretam ruídos de comunicação. A falta de reconhecimento da importância da linguagem é um elo perdido da Administração Estratégica[5].

A segunda estratégia propõe a modelagem de arquiteturas especiais de informações gerenciais, com base na adequada caracterização dos processos de administração, de produção e de negócio da organização.

  • As arquiteturas especiais de informações são de três tipos: Arquiteturas Administrativas de Informações Gerenciais, Arquiteturas Universais de Informações Gerenciais e Arquiteturas de Informações Gerenciais Sobre Negócios.

A terceira estratégia propõe a formatação de sistemas avançados de informações gerenciais, com base nas arquiteturas especiais de informação gerencial.

  • Sistema avançado de informações gerenciais é aquele que reconhece - de maneira explícita - as sínteses e as análises presentes no sistema de produção. Uma síntese transforma dois diferentes insumos em um único e diferente produto. Uma análise transforma um único insumo em dois diferentes produtos. Os processos de sintese e análise impõem severas limitações à ação do gerente de produção. Um sistema de informações é avançado quando torna disponíveis as informações requeridas para o adequado gerenciamento dos processos de transformação. A importância dos conceitos de síntese e análise para a informação e a comunicação está em que cada um destes processos exige a utilização de três diferentes nomes para designar os três diferentes insumo(s) ou produto(s) que afluem para ou refluem de cada sintetizador ou analisador. Se esta regra básica não for obedecida, haverá perda de informação e ruído na comunicação.

fonte.wikipedia


Software

 

Sistema de informação de gestão ou sistema de informações gerenciais (SIG; do inglês, management information system—MIS) é um sistema de informação, tipicamente baseado em computadores, utilizado no seio de uma organização.[1] A WordNet descreve um sistema de informação como "um sistema que consiste na rede de canais de comunicação numa organização".[2]

Um sistema de informação é composto por todos os componentes que recolhem, manipulam e disseminam dados ou informação. Incluem-se tipicamente hardware, software, pessoas, sistemas de comunicação como linhas telefónicas, e os dados propriamente ditos. As actividades envolvidas incluem a introdução de dados, processamento dos dados em informação, armazenamento de ambos, e a produção de resultados, como relatórios de gestão.

Como área de estudo é tipicamente referida como administração ou gestão de tecnologias de informação. O estudo de sistemas de informação é vulgarmente uma disciplina de administração e gestão comercial, e envolve frequentemente desenvolvimento de software, mas também se distingue concentrando-se na integração de sistemas computadorizados mediante os objectivos da organização. Esta área de estudo não deve, no entanto, ser confundida com ciência da computação, sendo esta mais teórica e matemática por natureza, ou com engenharia dos computadores.

No contexto empresarial, os sistemas de informação ajudam os processos de negócio e operações, tomadas de decisão e estratégias competitivas.

Índice

  • 1 Papel de suporte funcional
  • 2 Papel de suporte à decisão
  • 3 Papel de suporte estratégico
  • 4 Papel de monitorização de desempenho
  • 5 Os SIG como barreira de entrada
  • 6 Desenvolvimento histórico
  • 7 Perspectivas de evolução
  • 8 Associações e grupos
  • 9 Ver também
  • 10 Referências

Papel de suporte funcional

A função de suporte aos processos e operações de negócio é a mais básica: envolve recolhimento, registo, armazenamento e pré-processamento de dados. Os sistemas de informação ajudam os processos e operações, tornando-os mais ágeis, baratos, padronizados e rastreáveis:

  • registrando e armazenando dados das vendas, compras, investimentos, salários e outra contabilidade;
  • processando os registros de contabilidade em previsões de lucro, balanço, relatórios de gestão, e outras formas de informação financeira;
  • registrando e armazenando dados do inventário, trabalho em curso, reparação e manutenção de equipamento, cadeia de fornecimento, e outros registros de produção/operação;
  • processando estes registros de operações em agendas de produção, controladores, sistemas de inventário, e sistemas de monitorização da produção;
  • registrando e armazenando dados sobre o pessoal, salários, histórico de contratações, e outros registros de recursos humanos;
  • processando estes registos em relatórios de despesas com pessoal, e relatórios baseados em desempenho;
  • registrando e armazenando dados de mercado, perfis de cliente, histórico de compras por cliente, estudos de mercado, publicidade, e outros registos de marketing;
  • processando estes registros de marketing em relatórios de elasticidade publicitária, planos de marketing, e relatórios de vendas;
  • registrando e armazenando dados de análise dos competidores, industriais, objectivos empresariais, e outros registros de gestão estratégica;
  • processando estes registros de gestão estratégica em relatórios de trocas industriais, quotas de mercado, planejamento de objetivos, e modelos de portfolio;
  • usando os pontos supracitados para implementar, controlar e monitorizar planos, estratégias, tácticas, novos produtos, novos modelos de negócio, ou novos investimentos.

Previamente a um investimento em tecnologia de informação, torna-se necessário alinhar quais as informações que serão necesárias. Essas informações deverão estar alinhadas com os objetivos da organização, e só assim elas podem agregar valor para os tomadores de decisão.

Papel de suporte à decisão

A função de suporte à elaboração de decisões de negócio vai um passo mais à frente. É parte integrante na tomada de decisões. Permite aos utilizadores formular questões "E se..?": E se aumentarmos o preço em 5%? ; E se aumentarmos o preço em 10%? ; E se reduzirmos o preço em 5%? ; E se aumentarmos o preço em 10% agora, e reduzi-lo em 5% em três meses? Também permite aos utilizadores ligar com contingências: E se a inflação aumenta em 5% (em vez dos 2% previstos), o que fazer? Que fazer se formos confrontados com a greve ou uma nova ameaça da concorrência?

A ferramenta de elaboração de decisões mais básica e versátil é a folha de cálculo, mas estas são, por norma, muito pouco amigáveis em termos de interface. Programas mais sofisticados costumam incorporar ferramentas de tomadas de decisão estatísticas como análise de sensibilidade, análise Monte Carlo, análise de risco, análise de quebra e análise de Bayes. Se, por exemplo, se encontra a utilizar um sistema de informação para decidir sobre a introdução de um novo produto, o programa deve incorporar ferramentas como análise logit, análise B.C.G., análise conjunta, análise de margem de contribuição, escalonamento multi-dimensional, análise multifactoral G.E., análise de factor, análise de cluster, análise discriminativa, quality function deployment, regressão preferencial, e tradução preferência-grau.

Papel de suporte estratégico

Os sistemas de informação podem ajudar no posicionamento competitivo de uma empresa. Distinguem-se três níveis de análise.

  1. Os suportes na ajuda ao controlo da cadeia interna. Estes são os mais recentes, os mais pragmáticos e encontram-se ao alcance do gestor. São soluções de redução de custo e gestão do desempenho. Indicam-se sob o nome "análise de fluxo de negócio" (BWA - business wrkflow analysis) ou "sistemas de gestão de negócio p2p". Redes de ferramentas asseguram o controlo do conjunto de funções da empresa; o efeito em tempo real dos custos de disfunções perturba a contabilidade, avaliação e relatório dos resultados financeiros, articulados na avaliação e nos relatórios de controlo de qualidade.
  2. Qualquer empresa de sucesso tem uma (ou duas) funções que desempenha melhor que a competição: competência de núcleo. Se uma competência de núcleo de uma empresa lhe oferece uma vantagem no mercado a longo prazo, é designada de vantagem competitiva persistente. Para uma competência de núcleo atingir este nível terá que se tornar difícil de imitação, única, persistente, superior à concorrência, e aplicável a múltiplas situações. Alguns exemplos de características empresariais que podem constituir uma vantagem competitiva persistente são: melhor qualidade do produto, contratos de distribuição extensíveis, equidade acumulada no ramo e reputação positiva da empresa, técnicas de produção de baixo custo, patentes e direitos de autor, monopólios protegidos pelo estado, e melhores equipas de funcionários e gestores. A lista de características de uma vantagem competitiva persistente é muito extensa. No entanto existem alguns comentadores que defendem que no mundo da concorrência rapidamente adaptativa, nenhuma dessas vantagens consegue persistir por um longo prazo. Estes defendem que a única vantagem competitiva verdadeiramente persistente é construir uma organização tão alerta e ágil que consiga sempre detectar vantagens imediatamente, independentemente das alterações no mercado.
  3. Os sistemas de informação muitas vezes ajudam e ocasionalmente constituem estas vantagens competitivas. A rápida velocidade das mudanças tornou crítico o acesso à informação pontual e actual em ambientes competitivos. Os sistemas de informação, tal como os sistemas de rastreio de ambiente comercial, ajudam praticamente todas as vantagens competitivas. Um exemplo é a Wal-Mart, que usavam uma extranet para integrar toda a sua cadeia de fornecimento. Esta utilização dos sistemas de informação deu a Sam Walton uma vantagem competitiva durante duas décadas. Outro exemplo é a Dell Computer, que usava a Internet para comercializar PC's à medida. Michael Dell ainda beneficia desta promoção de baixo custo e técnica de distribuição. Outros exemplos são eBay, Amazon.com, Federal Express, e análise de fluxo de negócios Oberon-bwa.

Papel de monitorização de desempenho

Os SIG não se resumem à análise de dados e estatísticas:[3] precisam ser utilizados como ferramenta de administração por objectivos (MBO - management by objectives), e ajudam a:

  • estabelecer objectivos relevantes e quantificados
  • monitorizar resultados e desempenhos (taxas de sucesso)
  • enviar alertas, em alguns casos diariamente, aos gestores de cada nível da organização, em todas as variações entre resultados e objectivos pré-estabelecidos e orçamentos.

Os SIG como barreira de entrada

Uma vantagem estratégica importante é a "barreira de entrada". Existem várias formas de uma companhia, tendo investido em tecnologias de informação, poder recuperar o investimento para criar, aumentar ou manter barreiras de entrada.

  1. Aumento do investimento nas TI que suporte a competência de núcleo. As empresas de sucesso tendem a ter uma ou duas competências de núcleo que desempenham melhor que a concorrência. Pode ser qualquer coisa, desde o desenvolvimento de um novo produto a um serviço de clientes. A tecnologia de informação é muitas vezes uma entrada importante nesta competência de núcleo. Este investimento pode constituir uma grande barreira de entrada;
  2. Aumento do investimento nas TI em redes de cadeia de fornecimento. As empresas que constam como parte de um sistema de fornecimento integrado estabeleceram relações de segurança com os fornecedores, o que garante um decréscimo nos prazos de entrega, entregas sem problemas e fornecimento assegurado. Também pode incluir descontos e tratamento personalizados. A incapacidade das novas empresas em suportar estes sistemas de gestão de cadeia de fornecimento e inventariado pode constituir uma grande barreira de entrada;
  3. Aumento do investimento nas TI na gestão dos canais de distribuição. Tal como as redes de fornecimento, os investimentos nos sistemas de gestão de canais de distribuição pode assegurar prazos de entrega menores, entregas livres de problemas, e tratamento preferencial. O investimento nesta tecnologia, e a experiência adquirida na aprendizagem de como utilizá-la, pode ser uma importante barreira de entrada. Quando o sistema de gestão de canais de distribuição é exclusivo pode oferecer à empresa algum controlo sobre os retalhistas envolvidos.
  4. Aumento do investimento nas TI em equidade no ramo. Muitas vezes as empresas investem quantias avultadas em publicidade, que é facilitada pelo investimento em sistemas de informação de marketing e sistemas gestão de relações de clientes (CRM). Um nome de um produto que não seja apelativo é uma barreira de entrada formidável;
  5. Aumento do investimento nas TI em processos de produção (1). Os sistemas de informação tornaram-se uma necessidade na gestão de processos de produção extensos. Os sistemas automatizados são a forma mais eficiente em termos de custos de organizar processos de produção em grande escala. Estas empresas podem obter mais facilmente economias de escala na promoção, compra, e produção; economias de escopo na distribuição e promoção; sobrecarga reduzida na alocação por unidade; redução dos tempos mortos. Esta vantagem absoluta nos custos pode ser uma importante barreira de entrada;
  6. Aumento do investimento nas TI em processos de produção (2). Estes investimentos permitem à empresa maior flexibilidade no nível global de produção. Michael Porter defende que economias de escala são barreiras de entrada, lado a lado com as vantagens absolutas de custos que oferecem. Isto porque, uma companhia que produz a um nível da curva de custo médio de longa duração, onde existam economias de escala, tem potencial para obter reduções de custos no futuro, e este potencial constitui uma barreira de entrada;
  7. Aumento das vantagens da curva de aprendizagem pela experiência com as TI. Assim que uma empresa ganha experiência utilizando TI, torna-se familiarizada com uma série de práticas mais ou menos conhecidas para outras empresas na indústria. Empresas externas à indústria não estão, geralmente, familiarizadas com os aspectos específicos destes sistemas. As novas empresas terão este factor como desvantagem se não redefinirem as práticas industriais e exceder as empresas existentes;
  8. Aumento do investimento nas TI nas personalização massiva dos processos de produção. A tecnologia de controlo de produção pode facilitar a personalização colaborativa, adaptativa, transparente, ou cosmética. Esta flexibilidade aumenta as margens, satisfação do cliente, e pode ser uma importante barreira de entrada;
  9. Aumento do investimento nas TI em desenho assistido por computador (1). Os sistemas CAD facilitam a rapidez do desenvolvimento e introdução de novos produtos, o que pode potenciar diferenças proprietárias nos mesmos. A diferenciação do produto pode ser uma barreira de entrada;
  10. Aumento do investimento nas TI em desenho assistido por computador (2). As diferenças proprietárias dos produtos podem ser usadas para criar incompatibilidades com os produtos da concorrência (como qualquer utilizador de computador sabe). Estas incompatibilidades aumentam os custos nas trocas de clientes. Estes custos, quando elevados, são uma barreira de entrada de grande valor (veja-se o caso da Microsoft, por exemplo);
  11. Aumento do investimento nas TI em comércio electrónico (E-commerce). Os websites das empresas podem ser personalizados segundo os interesses dos clientes, expectativas e necessidades comerciais. Também podem ser utilizados para criar a sensação de comunidade. Ambos tendem a aumentar a fidelidade do cliente, que constitui uma importante barreira de entrada;
  12. Aumento do investimento nas TI em estabilidade. As empresas tecnologicamente sofisticadas com múltiplos pontos de contacto entre consumidores, fornecedores, e outros parecem ser mais estáveis. Esta aparência de estabilidade pode constituir uma barreira de entrada, especialmente verdade nos serviços financeiros.
  13. O simples facto que o investimento nas TI requer fundos torna-se uma barreira de entrada. Tudo o que aumentar os requisitos de capital torna-se uma barreira de entrada.

Desenvolvimento histórico

O papel dos sistemas de informação de negócios alterou-se e expandiu-se durante as últimas quatro décadas.

Na década de 1950-1960, os "sistemas eletrônicos de processamento de dados" apenas podiam ser adquiridos pelas maiores organizações. Eram usados para registrar e armazenar dados de arquivo como artigos jornalísticos e jornais especializados - papel de suporte às operações.

Pela anos 1960, os "sistemas de informação de gestão" foram usados para gerar uma gama limitada de relatórios pré-definidos, incluindo relatórios de lucro (eram designados por P & L's na altura), balanços e relatórios de vendas. Tentava-se que atuassem no papel de suporte às tomadas de decisão, embora ainda não fossem capazes.

Pela anos 1970, os "sistemas de suporte à decisão" foram introduzidos. Eram interactivos no sentido de que o utilizador podia escolher numerosas opções e configurações. Não só o utilizador podia personalizar os resultados, mas também configurar os programas para as suas necessidades específicas. No entanto, isso teve o seu custo: como parte do acordo de aluguel do sistema, ter-se-ia que pagar a um técnico de sistemas IBM para estar permanentemente no local.

A inovação nos anos 1980 foi a introdução da computação descentralizada. Em oposição a um único (e grande) computador para toda a empresa, vários PC's podiam ser espalhados pela organização, o que significava que não era mais necessário enviar o trabalho para o departamento de computadores para processamento (em fila de espera) e esperar pelos técnicos para realizar o procedimento: cada utilizador tinha o seu próprio computador e podia personalizá-lo segundo as suas necessidades. Muitos deles tinham que lidar e aprender os controversos protocolos do DOS, funções da BIOS e scripts batch de DOS.

Conforme as pessoas iam-se sentindo confortáveis na manipulação dos computadores, descobriam também as potencialidades que os seus sistemas lhes ofereciam. Os computadores, em vez de criarem uma sociedade sem papel, como foi previsto, produziram montanhas de papel, na sua maioria sem qualquer valor. Toneladas de relatórios foram gerados apenas porque era possível. Esta sobrecarga de informação foi reduzida algures nos anos 1980 com a introdução dos "sistemas de informação executiva". Estes refinaram o processo, oferecendo ao executivo exactamente aquilo que procuravam, e apenas isso.

Os anos 1980 também viram nascer a primeira aplicação comercial de técnicas de inteligência artificial na forma dos "sistemas inteligentes". Estes programas podiam gerar conselhos dentro de uma área muito limitada. A promessa do suporte à tomada de decisão, inicialmente tentada pelos sistemas de informação de gestão dos anos 1960 tinham, passo a passo, dado os seus frutos.

Os anos 1990 trouxeram a introdução dos "sistemas de informação estratégicos", devido em grande parte à evolução da gestão estratégica pelos académicos, como M. Porter, T. Peters, J. Reise, C. Markides, e J. Barney nos anos 1980. A vantagem competitiva tornou-se um assunto activamente discutido no contexto da gestão e as empresas de software ansiavam oferecer as ferramentas.

O papel dos sistemas de informação no negócio tinha-se agora expandido, incluindo o suporte estratégico. O último passo foi a comercialização da Internet, e o crescimento das intranets e extranets na virada do século.

Perspectivas de evolução

Na próxima década, prevê-se que os princípios de reengenharia de M. Hammer sejam incorporados ainda mais nos sistemas de informação de negócio. Hammer afirmou que melhor que orientar uma empresa em especialidades funcionais (como produção, contabilidade, marketing, etc.) e observando as tarefas que cada função desempenha, era necessário estudar todo o processo desde a aquisição dos materiais, até à produção, marketing e distribuição. A firma deveria ser, portanto, visualizada como uma séria de processos. Cada vez mais software irá seguir esta abordagem. Em última análise, irá existir um sistema de informação de negócio totalmente integrado, dentro do qual irá circular, transparentemente, todo o tipo de informação de negócio dentro da firma.

No seu livro Agenda, desenvolveu a idéia de incluir fornecedores e distribuidores. Toda a cadeia de fornecimento, desde as matérias primas até ao cliente, deviam ser vistos como um processo único. Por sua vez, não coincide com a teoria de M. Porters de uma cadeia de valor duas décadas antes. A diferença consiste em que Hammer incluiu formas de implementação que podem ser mais facilmente traduzidas em algoritmos de software para suportar extranets. Cada vez mais, os sistemas de informação para negócio irão orientar-se para o suporte a uma cadeia de valor, em oposição ao suporte empresarial. O modelo das ferramentas de software que representa esta nova tendência é a plataforma de suites "Sistemas de gestão empresarial p2p" também conhecidos como "gestão de fluxo de negócio" ou ainda "Oberon BWA".

No futuro, poderá chegar-se a um estado em que os sistemas se desloquem das extranets para a Internet. Os clientes serão considerados participantes integrados na cadeia de valor e terão o mesmo acesso ao sistema de informação que os fabricantes, fornecedores, distribuidores e facilitadores.

Associações e grupos

  • ISWorld
  • INFORMS
  • AIS

fonte.wikipedia

Software

 

Sistemas Integrados de Gestão Empresarial (SIGE ou SIG), em inglês Enterprise Resource Planning (ERP) , são sistemas de informação que integram todos os dados e processos de uma organização em um único sistema. A integração pode ser vista sob a perspectiva funcional (sistemas de: finanças, contabilidade, recursos humanos, fabricação, marketing, vendas, compras, etc) e sob a perspectiva sistêmica (sistema de processamento de transações, sistemas de informações gerenciais, sistemas de apoio a decisão, etc).

Os ERPs em termos gerais, são uma plataforma de software desenvolvida para integrar os diversos departamentos de uma empresa, possibilitando a automação e armazenamento de todas as informações de negócios.

Índice

  • 1 História do ERP
  • 2 A importância do ERP nas corporações
  • 3 Vantagens do ERP
  • 4 Desvantagens do ERP
  • 5 Fatores Críticos de Sucesso
  • 6 Uso do software
  • 7 Ver também

História do ERP

No final da década de 50, quando os conceitos modernos de controle tecnológico e gestão corporativa tiveram seu início, a tecnologia vigente era baseada nos gigantescos mainframes que rodavam os primeiros sistemas de controle de estoques – atividade pioneira da interseção entre gestão e tecnologia. A automatização era cara, lenta – mas já demandava menos tempo que os processos manuais – e para poucos.

No início da década de 70, a expansão econômica e a maior disseminação computacional geraram os MRPs (Material Requirement Planning ou planejamento das requisições de materiais), antecessores dos sistemas ERP. Eles surgiram já na forma de conjuntos de sistemas, também chamados de pacotes, que conversavam entre si e que possibilitavam o planejamento do uso dos insumos e a administração das mais diversas etapas dos processos produtivos.

Seguindo a linha evolutiva, a década de 80 marcou o início das redes de computadores ligadas a servidores – mais baratos e fáceis de usar que os mainframes – e a revolução nas atividades de gerenciamento de produção e logística. O MRP se transformou em MRP II (que significava Manufacturing Resource Planning ou planejamento dos recursos de manufatura), que agora também controlava outras atividades como mão-de-obra e maquinário.

Na prática, o MRP II já poderia ser chamado de ERP pela abrangência de controles e gerenciamento. Porém, não se sabe ao certo quando o conjunto de sistemas ganhou essa denominação.

O próximo passo, já na década de 80, serviu tanto para agilizar os processos quanto para estabelecer comunicação entre essas “ilhas” departamentais. Foram então agregados ao ERP novos sistemas, também conhecidos como módulos do pacote de gestão. As áreas contempladas seriam as de finanças, compras e vendas e recursos humanos, entre outras, ou seja, setores com uma conotação administrativa e de apoio à produção ingressaram na era da automação.

A nomenclatura ERP ganharia muita força na década de 90, entre outras razões pela evolução das redes de comunicação entre computadores e a disseminação da arquitetura cliente/servidor – microcomputadores ligados a servidores, com preços mais competitivos – e não mais mainframes. E também por ser uma ferramenta importante na filosofia de controle e gestão dos setores corporativos, que ganhou aspectos mais próximos da que conhecemos atualmente.

As promessas eram tantas e tão abrangentes que a segunda metade daquela década seria caracterizada pelo boom nas vendas dos pacotes de gestão. E, junto com os fabricantes internacionais, surgiram diversos fornecedores brasileiros, empresas que lucraram com a venda do ERP como um substituto dos sistemas que poderiam falhar com o bug do ano 2000 – o problema na data de dois dígitos nos sistemas dos computadores.

A importância do ERP nas corporações

Entre as mudanças mais palpáveis que um sistema de ERP propicia a uma corporação, está a maior confiabilidade dos dados, agora monitorados em tempo real, e a diminuição do retrabalho. Algo que é conseguido com o auxílio e o comprometimento dos funcionários, responsáveis por fazer a atualização sistemática dos dados que alimentam toda a cadeia de módulos do ERP e que, em última instância, fazem com que a empresa possa interagir. Assim, as informações trafegam pelos módulos em tempo real, ou seja, uma ordem de vendas dispara o processo de fabricação com o envio da informação para múltiplas bases, do estoque de insumos à logística do produto. Tudo realizado com dados orgânicos, integrados e não redundantes.

Para entender melhor como isto funciona, o ERP pode ser visto como um grande banco de dados com informações que interagem e se realimentam. Assim, o dado inicial sofre uma mutação de acordo com seu status, como a ordem de vendas que se transforma no produto final alocado no estoque da companhia.

Ao desfazer a complexidade do acompanhamento de todo o processo de produção, venda e faturamento, a empresa tem mais subsídios para se planejar, diminuir gastos e repensar a cadeia de produção. Um bom exemplo de como o ERP revoluciona uma companhia é que com uma melhor administração da produção, um investimento, como uma nova infra-estrutura logística, pode ser repensado ou simplesmente abandonado. Neste caso, ao controlar e entender melhor todas as etapas que levam a um produto final, a companhia pode chegar ao ponto de produzir de forma mais inteligente, rápida e melhor, o que, em outras palavras, reduz o tempo que o produto fica parado no estoque.

A tomada de decisões também ganha uma outra dinâmica. Imagine uma empresa que por alguma razão, talvez uma mudança nas normas de segurança, precise modificar aspectos da fabricação de um de seus produtos. Com o ERP, todas as áreas corporativas são informadas e se preparam de forma integrada para o evento, das compras à produção, passando pelo almoxarifado e chegando até mesmo à área de marketing, que pode assim ter informações para mudar algo nas campanhas publicitárias de seus produtos. E tudo realizado em muito menos tempo do que seria possível sem a presença do sistema.

Entre os avanços palpáveis, podemos citar o caso de uma indústria média norte-americana de autopeças, situada no estado de Illinois, que conseguiu reduzir o tempo entre o pedido e a entrega de seis para duas semanas, aumentando a eficiência na data prometida para envio do produto de 60% para 95% e reduzindo as reservas de insumos em 60%. Outra diferença notável: a troca de documentos entre departamentos que demorava horas ou mesmo dias caiu para minutos e até segundos.

Esse é apenas um exemplo. Porém, de acordo com a empresa, é possível direcionar ou adaptar o ERP para outros objetivos, estabelecendo prioridades que podem tanto estar na cadeia de produção quanto no apoio ao departamento de vendas como na distribuição, entre outras. Com a capacidade de integração dos módulos, é possível diagnosticar as áreas mais e menos eficientes e focar em processos que possam ter o desempenho melhorado com a ajuda do conjunto de sistemas.

Vantagens do ERP

Algumas das vantagens da implementação de um ERP numa empresa são:

  • Eliminar o uso de interfaces manuais
  • Reduzir custos
  • Otimizar o fluxo da informação e a qualidade da mesma dentro da organização (eficiência)
  • Otimizar o processo de tomada de decisão
  • Eliminar a redundância de atividades
  • Reduzir os limites de tempo de resposta ao mercado
  • Reduzir as incertezas do Lead time
  • Incorporação de melhores práticas (codificadas no ERP) aos processos internos da empresa
  • Reduzir o tempo dos processos gerenciais

Desvantagens do ERP

Algumas das desvantagens da implementação de um ERP numa empresa são:

  • A utilização do ERP por si só não torna uma empresa verdadeiramente integrada;
  • Altos custos que muitas vezes não comprovam a relação custo/benefício;
  • Dependência do fornecedor do pacote;
  • Adoção de melhores práticas aumenta o grau de imitação e padronização entre as empresas de um segmento;
  • Torna os módulos dependentes uns dos outros, pois cada departamento depende das informações do módulo anterior, por exemplo. Logo, as informações têm que ser constantemente atualizadas, uma vez que as informações são em tempo real, ocasionando maior trabalho;
  • Aumento da carga de trabalho dos servidores da empresa e extrema dependência dos mesmos;

Fatores Críticos de Sucesso

Segundo uma pesquisa Chaos e Unfinished Voyages (1995) os principais fatores críticos de sucesso para um projeto de implantação de um ERP são:

  • Envolvimento do Usuário
  • Apoio da direção
  • Definição clara de necessidades
  • Planejamento adequado
  • Expectativas realistas
  • Marcos intermediários
  • Equipe competente
  • Comprometimento
  • Visão e objetivos claros
  • Equipe dedicada
  • Infraestrutura adequada

Uso do software

Um dos pontos fortes do sistema é a integração entre os módulos. Os monitores, as operações e a navegação dentro do sistema são de tal forma padronizadas que, à medida que o utilizador se familiariza com um módulo, aprende mais facilmente e rapidamente os demais. Os acessos às informações são realizados através de menus com utilização de senhas, permitindo que se controle quais os utilizadores que têm acesso a que tipo de informações. Além disso, os menus são customizados de forma que cada utilizador visualize e tenha acesso somente às operações que atendam aos objetivos específicos de seu interesse.

origem.wikipedia

Software

 

E-mail marketing é a utilização do e-mail como ferramenta de marketing direto, respeitando normas e procedimentos pré-definidos, analisando o retorno gerado através de relatórios e análises gráficas gerando campanhas cada vez mais otimizadas.

Índice

  • 1 E-mail Marketing e o SPAM
  • 2 Utilizações do E-mail Marketing
  • 3 Benefícios do E-mail Marketing[3]
  • 4 Diferenças entre Email Marketing e a Mala Direta
  • 5 Mensuração
  • 6 Referências
  • 7 Ligações externas

E-mail Marketing e o SPAM

Diferentemente do spam (mensagens indesejadas), é essencial ao e-mail marketing o consentimento do cliente (também chamado opt-in), que pode ser explícito, quando ele mesmo opta por receber, ou implícito, caracterizado por uma relação evidente entre as partes. O email marketing também se diferencia do spam por permitir ao destinatário a opção de se descadastrar a qualquer momento da lista de envio pela qual recebeu o email. Isso se chama "opt-out" e de acordo com o [1] Código de Autorregulamentação para a Prática de Email Marketing], o remetente deverá disponibilizar ao Destinatário a sua política de Opt-out e informar o prazo de remoção do seu endereço eletrônico da base de destinatários, que não poderá ser superior a 2 (dois) dias úteis, quando solicitado diretamente pelo link de descadastramento do E-mail Marketing e 5 (cinco) dias úteis quando solicitado por outros meios, prazos estes contados a partir da data da solicitação comprovada.

No entanto muitas empresas contratam agencias que utilizam listas de email de terceiros, ao se cadastrar em um site o usuário termina por receber infitos emails dos mais variados assuntos sem jamais ter requisitado. Também de acordo com Comitê Gestor da Internet no Brasil: Uma das mais freqüentes, e piores, desculpas usadas pelos spammers é alegar que se o usuário não tem interesse no e-mail não solicitado, basta "removê-lo". Essa é uma característica de e-mail de spam[2].

Utilizações do E-mail Marketing

Seguindo esses princípios éticos, o e-mail marketing pode ser usado na oferta de produtos e serviços, na promoção de itens adicionais e de interesse específico, bem como em campanhas de fidelização, pesquisas de satisfação, cartões comemorativos e de aniversário.

Também é utilizado para envio de informativos periódicos, notícias, artigos e comunicados internos. Na organização de eventos, por exemplo, o marketing por e-mail pode ser aplicado para a distribuição de convites, confirmação de presença e agradecimento de participação.

Benefícios do E-mail Marketing[3]

De acordo com um estudo realizado pelo Comitê Gestor da Internet no Brasil, Instituto Brasileiro de Geografia e Estatística e Instituto Brasileiro de Opinião Pública e Estatística, o principal motivo de acesso à Internet no Brasil é o e-mail [4].

Dessa forma, o e-mail marketing fornece uma forma simples de se conectar e ser lembrado. Esta ferramenta, a princípio inexpressiva, não apenas permite enviar mensagens direcionadas regularmente, mas também que receber respostas rápidas e alcançar resultados imediatos.

Nesse sentido, as empresas que adotam o e-mail marketing têm uma série de benefícios[carece de fontes?]: proatividade —em vez de esperar o interesse do cliente, a empresa pode encontrá-lo; interatividade — o cliente interage imediatamente com a mensagem; segmentação — é possível direcionar a mensagem por sexo, faixa etária e cidade, por exemplo; personalização — a mensagem pode ser facilmente personalizada com informações do cliente; mensuração — o retorno da ação realizada é acompanhada em tempo real e custo-benefício.

Diferenças entre Email Marketing e a Mala Direta

Em comparação com a mala direta, por exemplo, o e-mail marketing oferece grandes vantagens[carece de fontes?]. A primeira delas é a velocidade. Enquanto que, pelo correio, a mensagem tradicional leva de três a cinco dias para ser entregue, utilizando-se a Internet, o cliente a recebe imediatamente[carece de fontes?].

Outra vantagem é a economia, pois a comunicação digital reduz custos de criação e envio, bem como elimina despesas de impressão e manuseio. Além disso, a praticidade também é uma vantagem[carece de fontes?], pois, no relacionamento por e-mail, é necessário ter apenas o nome e a caixa postal eletrônica do cliente. Já por mala direta impressa, são necessárias várias informações: rua, bairro, cidade, estado e CEP.

Mensuração

Nas ferramentas mais modernas de e-mail marketing é possível acompanhar o resultado das campanhas em tempo real (enquanto a campanha é enviada)[carece de fontes?]. Uma informação importante sobre disparos de e-mails é que devem ser realizados sempre pela mesma conta de e-mail[carece de fontes?], pois muitos sistemas hoje contam com autenticação de contas (ou filtros anti-spam) que exigem inserção de dados por seres humanos para garantir que não foram robos que enviaram a mensagem.

fonte.wikipedia

Software

 
Videoconferência entre militares em 2006.

Videoconferência é uma tecnologia que permite o contacto visual e sonoro entre pessoas que estão em lugares diferentes, dando a sensação de que os interlocutores encontram-se no mesmo local. Permite não só a comunicação entre um grupo, mas também a comunicação pessoa-a-pessoa.

Índice

  • 1 Arquitetura
  • 2 Vantagens
  • 3 Pessoal x Profissional
  • 4 Referências
  • 5 Ver também

Arquitetura

Essa comunicação é feita em tempo real e existem vários sistemas interpessoais de videoconferência que possibilitam isso. Além da transmissão simultânea de áudio e vídeo, esses sistemas oferecem ainda recursos de cooperação entre os usuários, compartilhando informações e materiais de trabalho. Em geral os equipamentos de videoconferência (terminais ou CODECs) disponíveis no mercado possuem capacidade de estabelecer uma comunicação ponto a ponto, e para que vários pontos se conectem simultaneamente é preciso utilizar um equipamento denominado MCU (Multiponto Control Unit). O funcionamento da MCU assim como de outros componentes necessários a videoconferência são especificados pelo padrão H.323 e SIP. Também é possível estabelecer uma conexão entre varios pontos utilizando a tecnologia de conexão Multicast. O Multicast é pouco utilizado por ser uma tecnologia de rede que não esta presente na Internet apenas em redes privadas e fechadas.

Um ambiente comum de videoconferência é composto de uma sala dotada de uma câmera especial e alguma facilidade tecnológica para a apresentação de documentos. Atualmente, com o avanço dos processadores (cada vez mais rápidos) e a compressão de dados, surgiu um novo tipo de videoconferência, a conferência desktop. Nela não é necessário salas especiais e muito menos equipamentos ultra modernos: a interação é feita por uma webcam e um microfone simples. A compressão/descompressão e todo o resto são efetuados por software que deve estar instalado em uma máquina padrão [1].

Vantagens

O uso da videoconferência apresenta uma série de vantagens [2]:

  • Economia de tempo, evitando o deslocamento físico para um local especial;
  • Economia de recursos, com a redução dos gastos com viagens;
  • Mais um recurso de pesquisa, já que a reunião pode ser gravada e disponibilizada posteriormente.

Além destes aspectos, os softwares que apoiam a realização da videoconferência, em sua maioria, permitem também, através da utilização de ferramentas de compartilhamento de documentos:

  • Visualização e alteração pelos integrantes do diálogo em tempo real;
  • Compartilhamento de aplicações;
  • Compartilhamento de informações (transferência de arquivos).

Pessoal x Profissional

Softwares gratuitos aproveitam a onda das webconferências e oferecem o serviço de videochat, como é o caso dos famosos Skype (mais recomendado para uma webconferência ponto-a-ponto) , ooVoo e Mikogo. Com interfaces simples, o usuário é convidado a interagir com pessoas que também possuem o programa. Para o consumidor o custo do empreendimento se resume à compra da webcam.

Embora esses programas livres venham se aprimorando, eles ainda são mais indicados para uso pessoal, uma vez que precisam da instalação de softwares e não garantem a qualidade do áudio e vídeo. Para um serviço mais especializado, algumas empresas apresentam soluções pagas com ofertas mensais.

fonte:wikipedia

Software

 

O OpenOffice.org é um exemplo de um aplicativo.
O GNU Image Manipulation Program (GIMP), versão 2.4.3. GIMP é um Software livre.

Software aplicativo (aplicativo ou aplicação) é um programa de computador que tem por objetivo ajudar o seu usuário a desempenhar uma tarefa específica, em geral ligada a processamento de dados. Sua natureza é diferente de outros tipos de software, como sistemas operacionais e ferramentas a eles ligadas, jogos e outros softwares lúdicos.

Índice

  • 1 Terminologia
  • 2 Classificação
  • 3 Software Livre, Software Proprietário e Software Comercial
  • 4 Licenças e tipos de distribuição de software
  • 5 Exemplos
  • 6 Referências

Terminologia

Aplicativos de software podem ser divididos em duas classes gerais: Software de sistema e Software Aplicativo .

Software de sistema são programas de computador de baixo nível que interagem com o computador num nível muito básico. Podemos citar como exemplos o Sistema Operacional, o firmware (um exemplo de firmware é a BIOS do computador), drivers de dispositivos e a interface gráfica que permite ao usuario interagir com o computador.

Software Aplicativo (normalmente referido como apenas Software) é um software que permite ao usuario realizar uma tarefa especifica. Podemos citar vários exemplos como o Microsoft Office, Internet Explorer, Adobe Photoshop e etc.

Classificação

Aplicações de softwares são dividadas em duas categorias: aplicações horizontais e aplicações verticais. Aplicações horizontais são as mais populares em departamentos e empresas. Aplicações verticais são produtos que atendem a um determinado nicho, para um tipo especifico de negócio ou divisão de uma companhia .

Existem vários tipos de softwares de aplicação:

  • Uma Suite de aplicativos consiste em multiplas aplicações unidas, geralmente com funções complementares, mesma interface e que podem ou não interagir entre si. Exemplos são Microsoft Office, OpenOffice.org and iWork que juntam processadores de texto, planilhas, apresentação e etc. Também existem Suites com outros propositos como o Adobe Creative Suite.
  • Aplicações desenvolvidas por usuário final: são aplicações escritas pelo próprio usuario para adequar um sistema às suas necessidades. Geralmente incluem processadores de palavras, simuladores cientificos, scripts de animação e de gráficos. Um exemplo de aplicação desenvolvida por usuário final são os filtros de e-mail.
  • Software Empresarial: É feito especificadamente para atender as necessidades de processos e fluxo de dados de uma empresa, geralmente de grande porte e com necessidades de compartilhamento de dados como sistemas de departamentos financeiros, sistemas de gerenciamento de clientes, sistemas de gerenciamento de viagens corporativas e sistemas de request de help-desk/suporte.
  • Software de infra-estrutura empresarial: Sistemas de funcionamento empresarial como servidores de e-mail, sistemas para gerenciamento de rede e segurança, sistemas automaticos de back-up e etc.
  • Software de informação profissional: São softwares que atendem às necessidades de indivíduos de criar e gerenciar informações, muitas vezes, para projetos individuais dentro de um departamento, em contraste com a gestão empresarial. Exemplos incluem a gestão de tempo, gestão de recursos, ferramentas de documentação, analítico e colaborativo. Processadores de textos, planilhas, clientes de e-mail e blog, sistema de informações pessoais, individuais e editores de meios de comunicação podem ajudar em tarefas de trabalho com múltiplas informações.
  • Software de simulação: São softwares que simulam outros sistemas com propositos de pesquisa, treinamento e até mesmo entretenimento.
  • Software de desenvolvimento de mídia: São softwares feitos especialmente para atender as necessidades de usuarios que criam mídia eletronica ou impressa com propositos comerciais ou educacionais. Como editors de HTML, animação digital, softwares criadores de audio e video e muitos outros.
  • Aplicativos de celular: São softwares que rodam em dispositivos móveis como smartphones, tablets, players de música portateis, leitores de livro e etc.
  • Software Interpretador de comandos: É um software e que os comandos tem que ser digitados para que alguma ação seja tomada. Exemplos são o DOS e o UNIX.
  • Software de interface de usuário: É um software em que os comandos são acionados por menus, botões e icones utilizando o mouse. Microsoft Windows, Mac OS e Ubuntu são exemplos comuns de Sistemas Operacionais que utilizam uma ou mais interfaces de usuário.
  • Aplicação “server-side”: É um software de terceiros que um usuário decide instalar em sua conta de uma Rede Social, por exemplo um jogo de Facebook como o The Sims Social.
  • Programas de acesso de conteúdo: São programas utilizados exclusivamente para fazer acesso de conteúdo sem edição e podem ou não incluir um segundo software que permite edição de conteúdo. Atendem as necessidades de usuarios que precisam acessar conteudo digital público. Temos como exemplo tocadores de mídia e navegadores web.
  • Softwares educacionais: São softwares relacionados a acesso de conteudo adaptados para estudantes e educadores. Podem ser desde jogos educacionais com intuit de educar e ensinar até edições de aplicativos com soluções otimizadas ao estudo.
  • Software de compartilhamento de informações: Utilizados normalmente por empresas de grande e médio porte para com necessidades de criar, gerenciar e compartilhar informações geralmente entre individuos alocados no mesmo departamento ou projeto.

Software Livre, Software Proprietário e Software Comercial

Software Proprietário é um software que tem sua distribuição e alteração limitadas pois o software é patenteado (do inglês Property Sofware)[1]. Para fazer uso ou qualquer alteração no programa (quando possível) é necessário a compra de uma licença. Alguns dos mais conhecidos softwares proprietários são o Microsoft Windows, o Microsoft Office, o RealPlayer, o Adobe Photoshop, o Mac OS, o WinZip, algumas versões do UNIX, entre outros.

Software Livre, segundo a definição da Free Software Foundation, é qualquer programa que possa ser utilizado, copiado, studado e redistribuido sem restrições[2]. Software livre é o oposto de software restritivo (software proprietário) mas não se opoe ao software vendido almejando lucro (software comercial).

Software comercial é um software criado com o objetivo de gerar lucro para a empresa que o criou seja pela venda de licenças ou pela utilização de anúncios no programa[3]. Um software comercial muito utilizado é o Windows Live Messenger (antigo MSN Messenger). O programa é considerado um software comercial pois embora seja propriedade da Microsoft e .consequentemente, de código fechado, ele gera lucro para a empresa através dos diversos anúncios presentes no programa.

Licenças e tipos de distribuição de software

  • Freeware: Freewares são softwares gratuitos, geralmente para pessoas físicas, havendo uma versão paga para uso corporativo. Geralmente propagandas ou patrocinadores mantém o projeto vivo. [4]
  • Shareware: São softwares que apenas funcionam por um determinado período de tempo (chamado período de avaliação) e depois o usuário deve decidir se adquire ou não o produto. [5]
  • Demo e Trial: Versões demo e trials são versões limitadas. As versões demo são relacionadas a jogos e geralmente são versões incompletas, mais curtas do jogo para que o jogador veja se gosta do jogo, do seu universo e jogabilidade. Versões trial funcionam quase da mesma maneira, os programas funcionam mas não de maneira completa, geralmente não salvando ou exportando os trabalhos realizados por completo, para utilizar todo o seu potencial o usuário deve comprar o software completo ou apenas a sua licença.[6]
  • Beta: Versões ainda em desenvolvimento ou em desenvolvimento constante (como o Gmail e outras aplicações do Google). Após a versão beta é lançada uma versão RC (Release Candidate) que é a última versão antes do lançamento oficial do software.[7]
  • Adware: São programas que vem junto com outros programas, como banners e barras de pesquisa[8]. O adware pode ser uma limitação de um programa shareware, exibindo propagandas e outros tipos de anúncio para sustentar o projeto. O banner é removido depois de comprada a licença
  • Opensource, GPL e GNU: É uma distribuição livre, de código-fonte aberto e disponível gratuitamente para download. O usuário tem total liberdade para fazer suas próprias alterações e posteriormente os desenvolvedores poderão utilizar esse código no projeto seguindo o mesmo padrão GPL (GNU Public License) que é o formato padrão Open-source.[9]
  • Malware: Do inglês, Malicious Software. O termo é utilizado para designar programas que tem como objetivo invadir e danificar sistemas como vírs e cavalos-de-tróia.[10]
  • Spyware: Software que tem como objetivo monitorar as atividades do usuário e coletar suas informações.[11]
  • Existem ainda inúmeros tipos de distribuição como o Bookware que consiste em comprar um determinado livro do autor para que o software se torne legítimo. Alguns desenvolvedores, para ampliar suas coleções pessoais ou hobbies, desenvolveram o Postcardware e o Stampware em que o usuário envia uma carta ou cartão postal e o desenvolvedor envia uma licença ao usuário ou registra o seu software remotamente.

Exemplos

  • Navegador web (Internet Explorer, Google Chrome, Mozilla Firefox, Opera, etc.);
Janela do Firefox 4.0 no Ubuntu
Janela do Google Chrome no Ubuntu

Utilizados para acessar a internet e seu conteúdo. Antigamente funcionavam apenas como visualizador de mídia mas agora podem ser utilizados para jogos, edição de textos e demais serviços na nuvem. Os mais famosos são o Internet Explorer da Microsoft, o Firefox da Mozilla e o Chrome do Google.

  • Correio eletrônico;
Cliente de e-mails Thunderbird

Aplicativos de gerenciamento e leitura de e-mails. Existem soluções pagas, como o Microsoft Outlook e soluções gratuitas como o Mozilla Thunderbird. Também existem soluções como o Mail do Macintosh que vem como parte do sistema.

  • Bate-papo ou chat;

Softwares de bate-papo são softwares de troca de mensagens entre usuários que podem ou não estar online ao mesmo tempo. Antigamente esses softwares precisavam estar instalados na máquina cliente (como o iChat e o antigo MSN Messenger, da Apple e Microsoft respectivamente) ou então apenas em um servidor (como o chat UOL) mas a evolução da internet e o serviço em nuvem quebraram essa barreira e soluções como o Windows Live Messenger funcionam tanto no cliente como no servidor e oferece serviços integrados como a integração com o Facebook. Hoje em dia soluções de chat podem ser encontradas facilmente em sites de forúm ou qualquer outro que contenha um banco de dados de usuários.

  • Aplicativos para desenvolvimento;
Notepad++

Aplicativos para desenvolvimento são aplicativos que reconhecem uma ou mais linguagens de programação e oferecem assitência e uma plataforma sólida para desenvolvedores realizarem seu trabalho. Temos como exemplo soluções gratuitas como o Dreamweaver e soluções proprietárias como o Dreamweaver da Adobe. Aplicativos para desenvolvimento podem reconhecem e compilar diversas linguagens de programação ou apenas uma especifica ou uma categoria específica.

  • Aplicativos para telefonia e videoconferência;
Skype

Aplicativos de telefonia são soluções que utilizam da tecnologia da internet para realizar chamadas de voz entre dois computadores (ou dois IPs diferentes). Com a evolução da tecnologia temos essas soluções também presentes em outras plataformas como Smartphones e tablets. Um exemplo disso é o Facetime da Apple que permite video-conferência entre iPhones, iPods, Macbooks e iPads. E versões do Skype para celular permitindo chamadas VOip em Smartphones e quebrando barreiras entre celular e computador.

  • Aplicativos CAD/CAM Solid/Works, AutoCAD, Rz CAD Textil, Audaces, Lectra, Gerber.
Cad

Aplicativos para desenho industrial. Utilizandos predominantemente em ambiente empresarial e industrial.

  • Aplicativos de automação de processos na Administração Pública e de Processo eletrônico.

Aplicativos que dão suporte a gerencia de processos e auxiliam na administração e processamento de dados de uma empresa. Auxiliam no compartilhamento de dados entre setores e democratização da informação dentro de uma organização.

Referências

  1. ↑ http://pt.wikipedia.org/wiki/Software_propriet%C3%A1rio
  2. ↑ http://br-linux.org/faq-softwarelivre/
  3. ↑ http://pt.wikipedia.org/wiki/Software_comercial
  4. ↑ http://en.wikipedia.org/wiki/Software_license
  5. ↑ http://en.wikipedia.org/wiki/Software_license
  6. ↑ http://www.baixaki.com.br/info/licencas.htm
  7. ↑ http://www.baixaki.com.br/info/licencas.htm
  8. ↑ en.wikipedia.org/wiki/Adware
  9. ↑ http://en.wikipedia.org/wiki/Software_license
  10. ↑ en.wikipedia.org/wiki/Malware
  11. ↑ http://en.wikipedia.org/wiki/Spyware

fonte:wikipedia

Software

 

Nanomedicina é a denominação dada à junção da medicina e da nanotecnologia. Em suma a nanomedicina consiste em usar nanopartículas, nanorobôs e outros elementos em escala nanométrica para curar, diagnosticar ou prevenir doenças.

A nanomedicina é um dos ramos mais promissores da medicina contemporânea, retendo boa parte dos esforços científicos na busca de novos tratamentos para doenças como o câncer e a AIDS, entretanto a nanomedicina ainda depende de muitos avanços científicos e tecnológicos, já que a tecnologia necessária para a aplicação da nanomedicina ainda é muito imatura.

As pesquisas em nanomedicina são diretamente beneficiadas pelos avanços em biologia molecular e em nanorobótica. Atualmente decorrem muitos estudos sobre os efeitos de nanopartículas e nanorobôs dentro do corpo humano.

As possibilidades de aplicação da nanotecnologia na medicina são imensas. Segundo estimativas, em Abril de 2006 já estavam sendo desenvolvidas pelo menos 130 drogas que utilizam a nanotecnologia no mundo.

A NASA faz depender a viagem a Marte dos avanços da biologia molecular e da nanomedicina que permitam o uso de nanopartículas, nanorobôs e outros dispositivos mesoscópicos para prevenir, diagnosticar ou curar doenças, em particular o cancro, de forma não agressiva.[1][2]

Como por exemplo para ajudar na cura da AIDS e:

  • A nanotecnologia molecular terá um grande impacto no campo da medicina em geral.
  • As ferramentas de investigação e a prática da medicina serão menos dispendiosas e mais potentes. Contaremos com sistemas de investigação e diagnóstico mais eficazes, o que permitirá uma capacidade de resposta mais rápida perante novas doenças.
  • Uma quantidade de pequenos sensores, computadores e diversos aparelhos de custo reduzido permitirão um controle contínuo na saúde dos pacientes, assim como também, no tratamento automático. Além disso, será possível a existência de diversos tipos de novos de tratamentos.
  • A nanomedicina é um dos ramos mais promissores da medicina contemporânea, retendo boa parte dos esforços científicos na busca de novos tratamentos para doenças como o câncer e a AIDS, entretanto, a nanomedicina ainda depende de muitos avanços científicos e tecnológicos, já que a tecnologia necessária para a aplicação da nanomedicina ainda é muito imatura.
  • As pesquisas em nanomedicina são diretamente beneficiadas pelos avanços em biologia molecular e em nanorobótica. Atualmente decorrem muitos estudos sobre os efeitos de nanopartículas e nanorobôs dentro do corpo humano.
  • As possibilidades de aplicação da nanotecnologia na medicina são imensas. Em teoria, nanorobôs poderiam ser introduzidos no corpo, seja por via oral ou intra-venosa, e então identificaríam e destruiriam células cancerosas ou infectadas por vírus, poderiam regenerar tecidos destruídos e fazer rapidamente uma infinidade de coisas que os medicamentos convencionais (baseados unicamente em química) não conseguem ou demoram para conseguir.
  • Aparecimento de nano-dispositivos de regeneração celular que poderão garantir a regeneração dos tecidos e imortalidade.
  • Portador de deficiência múltipla já executa tarefas com a juda de máquinas conectadas ao seu cérebro.
  • Utilizando-se de nanotubos, a medicina poderá aumentar a precisão de cirurgias e exames.
  • A grande revolução, segundo Kurzweil, em entrevista a ISTOÉ, é o amadurecimento da biotecnologia, onde que o desafio da ciência é interferir nos mecanismos biológicos para reprogramar o RNA e melhorar a produção de enzimas e proteínas. Essa evolução permitirá alcançar um fantástico estágio de transformção imposto pela nanotecnologia. Os robôs do tamanho de uma célula vasculharão o organismo fazendo reparos em tempo integral.

Segundo estimativas, em abril de 2006, já estavam sendo desenvolvidas pelo menos 130 drogas que utilizam a nanotecnologia no mundo.

References

  1. ↑ As potencialidades da nanomedicina, http://w3.ualg.pt/~jlongras/divulga.htm
  2. ↑ Viagem fantástica, Van Blad Comunicações e Entretenimento Lda. (http://w3.ualg.pt/~jlongras/divulga.htm)

Nanomedicina

Nanomedicina é a denominação dada à junção da medicina e da nanotecnologia. Em suma a nanomedicina consiste em usar nanopartículas, nanorobôs e outros elementos em escala nanométrica para curar, diagnosticar ou prevenir doenças.

A nanomedicina é um dos ramos mais promissores da medicina contemporânea, retendo boa parte dos esforços científicos na busca de novos tratamentos para doenças como o câncer e a AIDS, entretanto a nanomedicina ainda depende de muitos avanços científicos e tecnológicos, já que a tecnologia necessária para a aplicação da nanomedicina ainda é muito imatura.

As pesquisas em nanomedicina são diretamente beneficiadas pelos avanços em biologia molecular e em nanorobótica. Atualmente decorrem muitos estudos sobre os efeitos de nanopartículas e nanorobôs dentro do corpo humano.

As possibilidades de aplicação da nanotecnologia na medicina são imensas. Em teoria, nanorobôs poderiam ser introduzidos no corpo, seja por via oral ou intra-venosa, e então identificaríam e destruiríam células cancerosas ou infectadas por vírus, poderiam regenerar tecidos destruídos e fazer rapidamente uma infinidade de coisas que os medicamentos convencionais (baseados unicamente em química) não conseguem ou demoram para conseguir.

Segundo estimativas, em Abril de 2006 já estavam sendo desenvolvidas pelo menos 130 drogas que utilizam a nanotecnologia no mundo.

fonte:wikipedia

Software

 

A nanotecnologia do carbono é o ramo da nanotecnologia que estuda a manipulação de estruturas de carbono com comprimentos de 1 a 100 nanômetros.

Índice

  • 1 História
  • 2 Formas alotrópicas do carbono
  • 3 Nanoformas do carbono
    • 3.1 Fulerenos
    • 3.2 Nanotubos de carbono
    • 3.3 As nanocebolas de carbono
    • 3.4 Grafenos
  • 4 Processos para a obtenção de nanoestruturas de carbono
  • 5 Aplicações das nanoformas de carbono
  • 6 Conclusões
  • 7 Notas
  • 8 Ver também

História

A segunda metade do século XX foi marcada pela revolução dos "microchips", que possibilitaram a produção em massa de microcomputadores, e agregaram novas funções a itens tão diversos como eletrodomésticos, veículos e equipamentos.

Ao final desse mesmo século, novos materiais, a uma escala mil vezes menor, começaram a ser produzidos industrialmente, configurando a sua pesquisa e desenvolvimento um novo segmento do conhecimento, designado como nanociência. Embora imperceptíveis a olho nu, esses materiais ocupam um espaço cada vez maior no cotidiano da população, com aplicações na indústria têxtil, na geração de energia, na medicina, em revestimentos, entre outros.

O prefixo "nano" tem origem na palavra grega que significa anão. Colocado na frente de uma unidade de medida indica um bilionésimo dessa unidade. Assim, um nanômetro (1 nm) corresponde a um bilionésimo do metro, isto é, 10-9 metros. Nesse contexto, compreende-se:

  • nanociência como o estudo das propriedades da matéria que possui uma escala de comprimento entre 1 e 100 nm; e
  • nanotecnologia como o conjunto de procedimentos para a manipulação da matéria nessa escala.

Os materiais à escala nanométrica muitas vezes apresentam comportamentos completamente diferentes. Fora dos aglomerados macroscópicos, os efeitos quânticos tornam-se mais pronunciados, apresentando novas propriedades, e os elementos químicos expõe outros padrões de reatividade. Como exemplo, o alumínio, na forma de nanopartículas entra em combustão quando em contato com o oxigênio, o que levou ao desenvolvimento da MOAB, a maior bomba não-nuclear já construída, empregada largamente pelas tropas estadunidenses na guerra do Afeganistão.

A nanociência abrange diferentes segmentos, dentre os quais se destaca o da nanotecnologia do carbono. Para compreendê-la é necessário conhecer as formas alotrópicas do carbono.

Formas alotrópicas do carbono

Formas alotrópicas do carbono.

De acordo com a definição da International Union of Pure and Applied Chemistry (IUPAC), alótropos são diferentes modificações estruturais de um elemento químico. O termo refere-se à propriedade que determinados elementos apresentam de se apresentarem sob diferentes formas (formas alotrópicas), que variam em função de como os átomos desse elemento estão ligados entre si.

Como exemplo, o oxigênio pode ser encontrado na forma de:

  • O2 - um gás incolor, essencial para a existência da vida em nosso planeta e que constitui cerca de 23% do ar que respiramos;
  • O3 - o ozônio, que forma uma camada gasosa na estratosfera, protegendo o planeta de grande parte da radiação ultra-violeta emitida pelo Sol;
  • O4 - o tetra-oxigênio, muito pouco estável; e
  • O8 - o octa-oxigênio, um sólido vermelho.

Inúmeros outros elementos apresentam diferentes formas alotrópicas, dentre eles: o fósforo (P), o antimônio (Sb), o nitrogênio (N), o silício (Si), o boro (B), o enxofre (S), o selênio (Se), o germânio (Ge), o arsênio (As) e alguns metais como o ferro (Fe) e o titânio (Ti).

No caso do carbono, historicamente apenas três formas alotrópicas eram conhecidas, todas de ocorrência natural, sendo elas o grafite, o diamante e o carbono amorfo. Este último, apesar de conhecido desde tempos remotos, só foi considerado uma forma alotrópica recentemente.

Uma outra forma alotrópica do carbono, os carbinos, foram objeto de inúmeras controvérsias, já que muitos contestavam a possibilidade da existência de compostos de carbono hibridizados somente em sp. Os carbinos são extremamente reativos e termicamente instáveis. Essas substâncias já foram detectadas no espaço e, atualmente, estudos estão sendo realizados para tentar compreender melhor a sua estrutura.

Em 1985 foi descoberto o fulereno e, mais tarde, nanoestruturas do carbono como os nanotubos de carbono e as nanocebolas de carbono. Atualmente, inúmeras outras formas são conhecidas.[1]

Nanoformas do carbono

Devido às dimensões de estruturas formadas de carbono como os fulerenos, os nanotubos de carbono e as cebolas de carbono, estas recebem o nome de nanoformas de carbono. O estudo das suas propriedades tem mostrado aplicações nos mais variados campos da ciência.

Fulerenos

Estrutura do C60.

Nanotubos de carbono


NCPM.
NCPS.
Funcionalização de NC.
Modificações por interações covalentes.
Funcionalização no interior do nanotubo.
Nanotubos em forma de copos.
NC com terminação cônica.
Nanotubos geminados com fulerenos.
Utilização de NC para o desenvolvimento de fármacos.
Diferentes aplicações para fulerenos.
Tabela 1.

No início da década de 50, relatos de estruturas similares a folhas de grafite enroladas já eram descritos na literatura. Entretanto, foi em 1991 que Iijima apresentou a síntese dessas estruturas em quantidades substanciais[2]. Em seu trabalho, o pesquisador utilizou um método de evaporação por arco elétrico, semelhante ao utilizado na época para a obtenção de fulerenos. O crescimento dos tubos foi observado no eletrodo negativo do arco.

Inicialmente, Iijima referiu-se às estruturas observadas como microtúbulos helicais de carbono grafite. Hoje, essas estruturas são conhecidas como nanotubos de carbono (NC), e sua descoberta tida como um dos principais avanços na área de materiais dos últimos anos, principalmente devido às propriedades mecânicas e eletrônicas dos NC[3][4].

Os NC são derivados das fibras de carbono e dos fulerenos. Sua estrutura é um arranjo hexagonal de carbono em forma cilíndrica e pode ter extremidades abertas ou fechadas, com diâmetros variando de poucos Ångstroms a dezenas de nanômetros e comprimento de até alguns centímetros.

Os NC podem ainda ser divididos de duas formas, os NC de parede múltipla (NCPM) e os nanotubos de carbono de parede simples (NCPS).

Os NCPM são formados por duas ou mais camadas simples de cilíndricos concêntricos, com separação da ordem de 0,36 nm (aproximadamente o mesmo espaçamento observado entre as camadas de grafite) (Figura 5). No processo de produção por arco elétrico, os NCPM crescem na face do eletrodo negativo (catodo), ao longo de outras partículas como, poliedros, folhas de grafeno e carbono amorfo, diferente dos fulerenos convencionais como o C60 e o C70, que são encontrados misturados como a fuligem produzida na fase vapor do processo.

Já os NCPS são mais parecidos com os fulerenos convencionais do que seus análogos com múltiplas paredes, sendo constituídos por uma única folha de grafeno enrolada (Figura 6). Eles são formados na fase gasosa do processo de arco elétrico e uma diferença fundamental é o fato de precisarem de um catalisador para sua formação, em geral, um metal de transição. Os NCPS despertam maior interesse pela comunidade científica quando comparados com os NCPM, já que apresentam uma gama mais diversificada de possibilidades[5].

Dependendo da forma como as extremidades da folha de grafeno se ligam para dar origem ao nanotubo, há a variação de um parâmetro conhecido como ângulo de helicidade. Esse ângulo, combinado ao diâmetro do tubo dá origem aos índices de Hamada. Dependendo desses índices, o NC pode apresentar 3 arranjos distintos, que recebem os nomes de armchair, zig-zag e quiral (chiral). Esses arranjos apresentam propriedades de condução elétrica diferentes. Todos os NC do tipo armchair são condutores, enquanto que os NC do tipo zig-zag e quiral podem ser condutores ou semi-condutores. Outra característica interessante relacionada à condução de corrente em natubos de carbono provém de suas estruturas quasi-unidimencionais. Isso faz com que o transporte de carga ocorra sem espalhamento (transporte balístico), possibilitando a condução ao longo de grandes extensões do tubo, sem aquecimento[6].

Além das propriedades mecânicas e de condução elétrica, um dos principais interesses na área de NC está na possibilidade de realizar modificações químicas nessas estruturas[7], e as principais estratégias para o desenvolvimento dessa tarefa são:

  • Funcionalização em imperfeições localizadas na parede lateral e nos aros.

Um exemplo é a metodologia desenvolvida por Smalley e colaboradores[8], que consiste no tratamento de NCPS com H2SO4 : HNO3, dando origem a NCPS com extremidades abertas, contendo grupos carboxila nas extremidades e na parede lateral (Figura 7). Os grupos carboxila podem ainda sofrer outros tipos de reações, que levam à formação de ésteres, cloretos de acila e amidas.

  • Modificações por interações não-covalentes.

Essa estratégia consiste em funcionalizar o NC sem causar danos à estrutura eletrônica do mesmo. Esse método tem sido utilizado para a preparação de derivados ligados a surfactantes e macromoléculas como DNA, proteínas, polímeros e pirenos. Um exemplo é o hibrido [60]fulereno-pireno-nanotubo de carbono de parede simples preparado por Guldi e colaboradores[9]. Diferentes estudos revelaram a ligação entre o grupo pireno e o NC através de interações supramoleculares π-π.

  • Modificações por interações covalentes.

Assim como nos fulerenos, a distorção do sistema π dos carbonos sp², torna as paredes do nanotubo mais susceptíveis a reações do que sistemas aromáticos convencionais. Dessa forma, uma variedade modificações como halogenação, hidrogenação, adições nucleofílicas e reações radicalares são descritas com NC. Um exemplo bastante empregado para esse tipo de modificação é a formação de ilíideos azometina pela condensação com aminoácidos e aldeídos (Figura 8).

  • Funcionalização no interior do nanotubo.

A introdução de substâncias no interior de NCPS é certamente uma das mais fascinantes possibilidades de modificação desse tipo de estrutura. Metais como ouro e prata, pequenas proteínas como a lactamase e fulerenos tem sido inseridos com sucesso no interior dessas cavidades. Como exemplo, pode-se citar a introdução de fulerenos C60, através da abertura do NC (Figura 9). O tratamento desse material em vácuo, sob altas temperaturas (1.200 °C) leva à abertura dos fulerenos, formando NC com parede dupla.

Os processos normalmente empregados para a produção de NC podem sofrer modificações dando origem a variedades de NC, com geometrias bastante variadas, como é o caso dos nanotubos em forma de copos (Figura 10), que consistem em folhas de grafeno com formato de cone, onde seu diâmetro varia de 50 a 150 nm e seu comprimento pode chegar a 200 µm.

Outra variação são os nanochifres de carbono (Figura 11), que são NC com terminação cônica. Essas estruturas podem ser obtidas com alto teor de pureza, devido à ausência de nanopartículas de metal durante a sua produção.

Os NC podem ainda apresentar formas toroidais (em inglês conhecidos como nanotori), com diâmetros entre 300 e 500 nm e podem dar origem aos nanotubos geminados com fulerenos (em inglês conhecidos como nanobuds) (Figura 12). Estudos por microscopia eletrônica de transmissão já revelaram a existência de NC unidos covalentemente a fulerenos C42 e C60. Esse nanomaterial apresenta um grande potencial para possíveis aplicações, já que o híbrido pode fornecer novas estratégias de modificações químicas em NC.

As nanocebolas de carbono

Esquema da estrutura de nanocebolas de carbono.

A descoberta das chamadas "nanocebolas" de carbono ocorreu na mesma época da dos NC. Essas estruturas consistem em fulerenos com paredes múltiplas, isto é, esferas concêntricas de folhas de grafeno, onde cada uma é separada da outra por uma distância aproximada de 3,4 Ångstroms. Devido à vasta dimensão dessas estruturas, elas apresentam baixa solubilidade em solventes orgânicos e reatividade química similar ao grafite.

Grafenos

Esquema da estrutura do grafeno.

Os grafenos são anéis hexagonais de carbono com hibridização sp², formando uma estrutura bidimensional. Essas "folhas", quando unidas, formam o grafite. Foram desenvolvidos métodos para a produção de folhas de grafeno isoladas, o que levou essas estruturas a serem consideradas uma forma nanométrica de carbono. O grande interesse pelas folhas de grafeno está na capacidade que apresentam em transportar elétrons com bastante eficiência.

Processos para a obtenção de nanoestruturas de carbono

O preparo de materiais em escala nanométrica pode ser feito essencialmente através de dois caminhos:

  • o "top-down" e
  • o "bottom-up".

No modelo top-down, a ideia é partir de escalas maiores, e chegar a escalas nanométricas utilizando ferramentas externas de controle. Esse modelo é semelhante ao utilizado pela indústria de semicondutores para a fabricação de microchips, onde técnicas como a litografia são utilizadas. Entretanto, muitas vezes o modelo top-down esbarra em limitações físicas para alcançar seus objetivos e acaba tornando-se dispendioso.

Já o bottom-up vale-se do princípio da auto-montagem, a estratégia mais compatível com os princípios da nanotecnologia. Governados pelas interações químicas, átomos e moléculas reorganizam-se dando forma à estrutura desejada. Em geral, o modelo bottom-up, aparenta ser mais eficiente e mais barato.

Durante anos as principais formas para a obtenção de estruturas nanométricas de carbono foram a ablação por laser e o arco elétrico, sendo que esse último possibilitou a obtenção do fulereno em quantidades apreciáveis, contribuindo para o desenvolvimento de pesquisas na área. Ambas as estratégias enquadram-se no modelo top-down e são baseadas na evaporação de carbono a partir de um precursor sólido como por exemplo grafite de alta pureza, seguido da condensação dos átomos de carbono.

Nos últimos anos, um método conhecido como deposição química de vapor (CVD do inglês – Chemical Vapor Deposition) vem destacando-se na preparação NCPS, com orientação controlada[10] e nanocebolas de carbono. Enquadrada em um modelo bottom-up, a CVD consiste na introdução de um gás apropriado contendo carbono em um forno com temperaturas em torno de 700 a 900 °C. Os nanotubos crescem em uma superfície catalítica heterogênea, normalmente composta por um metal de transição ou por uma liga de metais de transição. A utilização de catalisadores permite o controle do diâmetro do NC, do ângulo de helicidade, da taxa de crescimento e da temperatura. Além do processo envolvendo altas temperaturas, o método CVD pode ser realizado utilizando-se um plasma. A sigla utilizada para caracterizar essa técnica é PECVD (do inglês Plasma Enhanced CVD).

Um outro método bastante simples — que permite a obtenção de NC, entretanto só produz NCPM — é a pirólise de hidrocarbonetos, como o benzeno, em temperaturas em torno de 1.000 °C. Os NC obtidos nesse processo apresentam características similares aos obtidos no processo de descarga de arco elétrico.

No caso das nanocebolas de carbono, a CVD é feita em superfícies contendo metais como Ni, Fe e Co. Entretanto, existem outros métodos que permitem controlar de maneira mais eficiente o tamanho da nanocebola. Estruturas pequenas, com 6 a 8 camadas e diâmetros em torno de 5 nm, são produzidas pelo recozimento de nanopartículas de diamante (~5 nm) em temperaturas acima de 1.200 °C. A principal vantagem desse método é o alto rendimento. Já nanocebolas maiores, com 20 a 30 camadas e diâmetro em torno de 15 a 25 nm, podem ser obtidas por um método que envolve o arco elétrico com eletrodos de grafite em água[11]. As nanocebolas produzidas ficam flutuando na superfície da água. Isso permite a obtenção do produto em um tempo reduzido, com bom rendimento e alto grau de pureza. Em outros estudos, verificou-se a possibilidade da produção de nanocebolas por arco elétrico em nitrogênio líquido. Quando comparado com o arco elétrico em água, esse processo demonstrou produzir uma quantidade menor de carbono amorfo junto às nanocebolas[12][13].

Aplicações das nanoformas de carbono

O grande destaque da nanotecnologia do carbono é proveniente das inúmeras aplicações que estão sendo desenvolvidas para as nanoestruturas do carbono. Na área de pesquisa e desenvolvimento de fármacos, fulerenos e NC podem ser utilizados para carregar substâncias bioativas até alvos específicos. Essas estruturas podem ser funcionalizadas com determinados grupos que facilitam a absorção de fármacos nos sistemas biológicos. Estudos recentes vêm mostrando a capacidade de NC em ligarem-se a proteínas de antígenos. Dessa forma, é possível o desenvolvimento de novas formas de vacinação. Outra utilidade na área farmacêutica seria a introdução de átomos metálicos no interior de fulerenos e NC, assim como a introdução de grupos funcionais em suas estruturas, que permitem a geração de imagens em exames de contraste (Figura 14)[14][15].

Na área de materiais, o desenvolvimento de compósitos com NC tem possibilitado a produção de materiais com maior resistência mecânica e com propriedades elétricas e magnéticas variadas. Híbridos de NC com metais permitem a criação de substâncias com propriedades micelares, onde a parte metálica apresenta um caráter hidrofílico enquanto que o NC apresenta um caráter hidrofóbico. Após a interação com outras substâncias na fase aquosa, essas estruturas são passíveis de manipulação por estímulos externos, como por exemplo, o campo magnético gerado por um imã[16].

Fulerenos estão sendo utilizados para a fabricação de polímeros[17](Figura 15), células solares, filmes de Langmuir[18] 21 e muitas outras aplicações, enquanto que, cebolas de carbono, tem demonstrado propriedades lubrificantes superiores a materiais convencionais, o que vem chamando a atenção de pesquisadores da NASA para possíveis aplicações em pesquisas aeroespaciais.

Na tabela abaixo (Tabela 1), são sumarizadas as principais aplicações de nanomateriais de carbono descritas na literatura[19][20][21].

Conclusões

A exploração das propriedades que os materiais em escala nanométrica podem apresentar será, certamente, uma das principais ocupações da ciência nos próximos anos. Gigantes como a IBM, Motorola, Samsung, L’Oréal, Volkswagen, Basf, Roche e muitos outros, já estão investido pesado nessa tecnologia, que promete uma vasta gama de aplicações e mudanças significativas na vida da população em geral.

Uma importante vertente da nanotecnologia é o estudo das nanoformas do carbono. Desde a descoberta do fulereno, em 1985, os avanços na área ocorrem de maneira estrondosa, principalmente devido ao desenvolvimento de metodologias sintéticas e aos avanços em técnicas analíticas, como a microscopia eletrônica e a ressonância magnética nuclear, que permitem manipular e a analisar essas substâncias com extrema perícia. Muitos avanços ainda são esperados, principalmente na área de materiais, entretanto, a produção de nanoestruturas do carbono em larga escala ainda é um desafio, que sem dúvida será vencido pela criatividade dos pesquisadores e pelos avanços da ciência.

Notas

  1. ↑ Falcão, E. H. L., Wudl, F., J. Chem. Technol., Biotechnol., 82, 524-531, 2007.
  2. ↑ Iijima, S., Nature, 354(7), 56-58, 1991.
  3. ↑ Javey, A. ACSNANO, 2(7), 1329 – 1335, 2008.
  4. ↑ Wood, J., Materials Today, 11(1-2), 40-45, 2008.
  5. ↑ Subramoney, S., Adv. Matter., 10(15), 1157-1171, 1998.
  6. ↑ Herbst, M. H.; Macedo, M. I. F.; Rocco, A. M., Quim. Nova, 27(6), 986-992, 2004.
  7. ↑ Delgado, J. L.; Herranz, M. Á.; Martín, N., J. Mater. Chem., 18, 1417-1426, 2008.
  8. ↑ Liu, J.; Rinzler, A. G.; Daí, H.; Hafner, J. H.; Kelley, R.; Boul, P. J.; Lu, A.; Iverson, T.; Shelimov, K.; Huffman, C. B.; Macías, F. R.; Shon, Y. S.; Randall, T.; Colbert, D. T.; Smalley, R. E., Science, 280, 1253-1256, 1998.
  9. ↑ Guldi, D. M.; Menna, E.; Maggini, M.; Marcaccio, M.; Paolucci, D.; Paolucci, F.; Campidelli, S.; Prato, M.; Rahman, G. M. A.; Schergna, S., Chem.-Eur. J., 12, 3975-3983, 2006.
  10. ↑ Huang, L.; Jia, Z.; O’Brien, S., J. Mater. Chem., 17, 3863-3874, 2007.
  11. ↑ Sano, N.; Wang, H.; Chhowalla, M.; Alexandrou, I.; Amaratunga, G. A. J., Nature, 414(29), 506-507, 2001.
  12. ↑ Sun, L.; Banhart, F., Appl. Phys. Lett., 88, 19321, 2006.
  13. ↑ Alexandrou, I.; Wang, H.; Sano, N.; Amaratunga, G. A. J., J. Chem. Phys., 120(2), 1055-1058, 2004.
  14. ↑ Prato, M.; Kostarelos, K.; Bianco, A., Accounts of Chemical Research , 41(1), 60-68, 2008.
  15. ↑ Reille, R. M., Nanotechnology in Nuclear Medicine, 48(7), 1039-1042, 2007.
  16. ↑ Ou, F. S.; Shaijumon, M. M.; Ajayan, P. M., Nano Lett., 8(7), 1853-1857, 2008.
  17. ↑ Giacalone, F.; Martin, N., Chem. Rev., 106, 5136-5190, 2006.
  18. ↑ Liu, W. –J.; Jeng, U.; Lin, T. –L.; Lai, S. –H.; Shih, M. C.; Tsao, C. –S.; Wang, L. Y.; Chiang, L. Y.; Sung, L. P., Physica B, 238, 49-52, 2000.
  19. ↑ Vamvakaki, V.; Chaniotakis, N. A., Sensors and Actuators B, 126, 193-197, 2007.
  20. ↑ Ruparelia, J. P.; Duttagupta, S. P.; Chatterjee, A. K.; Mukherji, S., Desalination, 232, 145-156, 2008.
  21. ↑ Valcárcel, M.; Cárdenas, S.; Simonet, B. M.; Moliner-Martinez, Y.; Lucena, R., Trends in Analytical Chemistry, 27(1), 34-43, 2008.

Ver também

  • Nanoespuma de carbono
  • Nanomateriais

fonte:wikipedia

Software

 

Miniaturização é o processo de produção de objetos de consumo cada vez menores (miniaturas), iniciado durante a revolução tecnológica do século XX, e atualmente em andamento. Os japoneses ficaram famosos após a Segunda Guerra pela sua eficiência em miniaturizar produtos eletrônicos.

A eletrônica é de longe o campo onde a miniaturização é mais intensa, mas esta é uma tendência geral em todos os campos da produção.

Ver também

  • Nanotecnologia
  • Nanômetro
  • Microscópio Eletrônico de Varredura (MEV)

fonte:wikipedia

Software

 
Imagem de um circuito integrado ampliada 2400 vezes

A nanotecnologia (algumas vezes chamada de Nanotech) é o estudo de manipulação da matéria numa escala atômica e molecular. Geralmente lida com estruturas com medidas entre 1 a 100 nanômetros em ao menos uma dimensão, e incluí o desenvolvimento de materiais ou componentes e está associada a diversas áreas (como a medicina, eletrônica, ciência da computação, física, química, biologia e engenharia dos materiais) de pesquisa e produção na escala nano (escala atômica). O princípio básico da nanotecnologia é a construção de estruturas e novos materiais a partir dos átomos (os tijolos básicos da natureza). É uma área promissora, mas que dá apenas seus primeiros passos, mostrando, contudo, resultados surpreendentes (na produção de semicondutores, Nanocompósitos, Biomateriais, Chips, entre outros). Criada no Japão, a nanotecnologia busca inovar invenções, aprimorando-as e proporcionando uma melhor vida ao homem.

Um dos instrumentos utilizados para exploração de materiais nessa escala é o Microscópio eletrônico de varredura, o MEV.

O objetivo principal não é chegar a um controle preciso e individual dos átomos, mas elaborar estruturas estáveis com eles.

Existe muito debate nas implicações futuras da nanotecnologia,(implications of nanotechnology), pois os desafios são semelhantes aos de desenvolvimentos de novas tecnologias, incluindo questões sobre a toxidade e impactos ambientais dos nanomateriais,[1] e os efeitos potenciais na economia global, assim como a especulação sobre cenários apocalípticos,(doomsday scenarios). Essas questões levaram ao debato entre grupos e governos a respeito de uma regulação sobre nanotecnologia

Índice

  • 1 O nanômetro (nm)
  • 2 Década de 80
  • 3 Nanotecnologia drexleriana
  • 4 Abordagens
  • 5 Utilizações mais radicais
  • 6 Montador Molecular ou Nanomontador
  • 7 Possíveis problemas
  • 8 A importância para o Brasil e para Portugal
  • 9 Produtos e serviços que já estariam no mercado
  • 10 Produtos em desenvolvimento
  • 11 Referências
  • 12 Ver também
  • 13 Ligações externas

O nanômetro (nm)


Richard P. Feynman foi o precursor do conceito da Nanotecnologia, embora não tenha utilizado este termo em sua palestra para a Sociedade Americana de Física, em 29 de dezembro de 1959, onde apresentou pela primeira vez suas idéias acerca do assunto. A palavra "Nanotecnologia" foi utilizada pela primeira vez pelo professor Norio Taniguchi em 1974 para descrever as tecnologias que permitam a construção de materiais a uma escala de 1 nanômetro. Para se perceber o que isto significa, considere uma praia de 1000 Km de extensão e um grão de areia de 1 mm, este grão está para esta praia como um nanometro está para o metro. Em alguns casos, elementos da escala periódica da química mudam seu estado, ficando até explosivos em escala nanométrica. A nanotecnologia é a capacidade potencial de criar coisas a partir do menor elemento, usando as técnicas e ferramentas que estão a ser desenvolvidas nos dias de hoje para colocar cada átomo e cada molécula no lugar desejado. Se conseguirmos este sistema de engenharia molecular, o resultado será uma nova revolução industrial. Além disso, teria também importantes consequências econômicas, sociais, ambientais e militares.

Década de 80

Buckminsterfulereno C60, também conhecido como fulerenos, é um membro representante das estruturas de carbono conhecido como fulerenos. Os membros da família fulereno são um tema importante da investigação que recaem sob a égide da nanotecnologia.

Embora a nanotecnologia seja um desenvolvimento recente na pesquisa científica, o desenvolvimento de seus conceitos centrais, vem acontecendo através de um longo período de tempo. A emergência da nanotecnologia na década de 1980 ocorreu-se devido a convergência de avanços experimentais como a invenção do microscópio de varredura de tunelamento em 1981 e na descoberta dos fullerenos em 1985, com o esclarecimento e popularização de um modelo de trabalho para os objetivos da nanotecnologia iniciando com a publicação em 1986 do livro Motores da Criação.

O microscópio de varredura de tunelamento, é um instrumento para visualização de superfícies no nível atômico, foi desenvolvido em 1981 por Gerd Binnig e Heinrich Rohrer no IBM Zurich Research Laboratory, pelo qual eles receberam o prêmio nobel em física em 1986.[2][3]. Fullerenos foram descobertos em 1985 por Harry Kroto, Richard Smalley, e Robert Curl, que juntos receberam o Prêmio Nobel em química em 1996.[4][5]

Ao mesmo tempo nos anos 80, o conceito de Nanotecnologia foi popularizado por Eric Drexler por meio do livro "Engines of Creation" (Motores da Criação). Este livro, embora contenha algumas especulações próximas da ficção científica baseou-se no trabalho sério desenvolvido por Drexler enquanto cientista. Drexler foi o primeiro cientista a doutorar-se em nanotecnologia pelo MIT.

Nanotecnologia drexleriana

A Nanotecnologia drexleriana é aquilo a que agora se chama nanotecnologia molecular e que pressupõe a construção átomo a átomo de dispositivos úteis à vida humana. O santo Graal da nanotecnologia drexleriana é o Montador Universal, um dispositivo capaz de, de acordo com as instruções de um programador, construir átomo a átomo qualquer máquina concebível pela mente humana. Drexler tem uma visão a longo prazo da nanotecnologia que prevê o aparecimento de nano-dispositivos de regeneração celular que poderão garantir a regeneração dos tecidos e a imortalidade.

Embora Eric Drexler seja considerado por muitos como o pai da nanotecnologia, a sua abordagem próxima da ficção científica é vista com desconfiança por outros cientistas mais interessados nos aspectos práticos da nanotecnologia. Eric Drexler fundou o "Foresight Institute" e tem-se dedicado à divulgação e desenvolvimento da Nanotecnologia rebatizada de ''''molecular''''

Abordagens

Entretanto a nanotecnologia desenvolveu-se graças aos contributos de várias áreas de investigação. Existem atualmente 3 abordagens distintas à nanotecnologia: uma abordagem de cima para baixo que consiste na construção de dispositivos por desgaste de materiais macroscópicos; a construção de dispositivos que se formam espontaneamente a partir de componentes moleculares; a de materiais átomo a átomo.

  • A primeira abordagem é a abordagem utilizada em microelectrônica para produzir chips de computadores e mais recentemente para produzir testes clínicos em miniatura.
  • A segunda abordagem recorre às técnicas tradicionais de química e das ciências dos materiais.
  • A terceira abordagem é aquela que levará mais tempo a produzir resultados significativos porque requer um controle fino da matéria só possíveis com o aperfeiçoamento da tecnologia.

Utilizações mais radicais

Outras utilizações mais radicais da nanotecnologia, seria a sua utilização nas ciências computacionais, como por exemplo, na nanofotonica, em que nanocristais seriam criados de modo a permitir uma capacidade de busca na ordem dos milhares ou dezenas de milhares de bits.

Montador Molecular ou Nanomontador

Um montador molecular ou nanomontador (nanoassem) é uma máquina nanotecnológica de tamanho bastante reduzido capaz de organizar átomos e moléculas de acordo com instruções dadas. Para fazer esta tarefa é necessário energia, suprimento de matéria-prima (building blocks) bem como a programação a ser executada pelo montador.

Um montador molecular pode atuar de forma isolada ou em conjunto com vários outros montadores moleculares. Podendo, neste caso, ser capaz de construir objetos macroscópicos. Para isto é necessário um sistema de comunicação entre os montadores bem como um sistema de organização que permitam que eles trabalhem em conjunto.

Existe a possibilidade de se construir um montador universal. Este teria a capacidade de construir qualquer objeto possível, incluindo um outro montador. Assim este poderia se replicar de forma semelhante aos seres vivos. Uma vez construído o primeiro montador ele poderia se reproduzir várias vezes até o número necessário para executar uma determinada tarefa como, por exemplo, a construção de várias toneladas de um nanomaterial. Esta capacidade de reprodução é uma das grandes vantagens de um montador molecular e também é um dos seus grandes riscos. Um montador poderia se reproduzir descontroladamente e ameaçar vidas humanas de forma semelhante a epidemias. Um risco poderia ser a colonização de toda a terra por montadores moleculares, extinguindo toda a vida na terra. Só restariam os próprios montadores em uma massa (provavelmente) cinza chamada de "greygoo". Drexler argumenta que este cenário é bastante difícil uma vez nenhum ser vivo conhecido consegue se reproduzir além do limite imposto pela quantidade de energia e matéria-prima disponíveis. Apesar disto, especialistas advertem que é necessário tomar precauções, pois os riscos para a saúde humana não são conhecidos.

A construção de um montador molecular ainda está longe de ocorrer. Vários problemas persistem como a dificuldade de trabalhar com átomos individuais necessários para a construção do montador. Além disto, é difícil modelar o comportamento de objetos complexos em escala nanométrica que obedecem as leis quânticas.

Possíveis problemas

Um dos possíveis problemas é a nanopoluição que é gerada por nanomateriais ou durante a confecção destes. Este tipo de poluição, formada por nanopartículas que podem ser muito perigosas uma vez que flutuem facilmente pelo ar viajando por grandes distâncias. Devido ao seu pequeno tamanho, os nanopoluentes podem entrar nas células de seres humanos, animais e plantas. Como a maioria destes nanopoluentes não existe na natureza, as células provavelmente não terão os meios apropriados de lidar com eles, causando danos ainda não conhecidos. Estes nanopoluentes poderiam se acumular na cadeia alimentar como os metais pesados e o DDT.

A importância para o Brasil e para Portugal

Imagem de reconstrução em Ouro limpo (100) na superfície, como visualizado utilizando a microscopia de tunelamento. As posições dos átomos individuais que compõem a superfície são visíveis.

A nanotecnologia é extremamente importante para o Brasil, assim como para Portugal, porque tanto a indústria brasileira como a portuguesa terão de competir internacionalmente com novos produtos para que a economia dos mesmos países se recuperem e retomem o crescimento econômico. Esta competição somente será bem sucedida com produtos e processos inovadores, que se comparem aos melhores que a indústria internacional oferece. Isto significa que o conteúdo tecnológico dos produtos oferecidos pela indústria brasileira e portuguesa terão de crescer substancialmente nos próximos anos e que a força de trabalho, principalmente brasileira, terá de receber um nível de educação em ciência e Tecnologia muito mais elevado do que o de hoje. Pelo referido, destaca-se o investimento que está a ser feito em Portugal, na cidade de Braga, com a construção do Laboratório Internacional Ibérico de Nanotecnologia (INL), estrutura que irá dedicar-se à investigação nesta área e que terá um investimento anual de 30 milhões de euros. [6]

Produtos e serviços que já estariam no mercado

Um levantamento sumário nas publicações que circulam sobre nanotecnologia aponta para os seguintes produtos e serviços que já estariam no mercado:

  • Tecidos resistentes a manchas e que não amassam;
  • Raquetes e bolas de tênis;
  • Capeamento de vidros e aplicações antierosão a metais;
  • Filtros de proteção solar;
  • Material para proteção (“screening”) contra raios ultravioleta;
  • Tratamento tópico de herpes e fungos;
  • Nano-cola, capaz de unir qualquer material a outro;
  • Pó antibactéria;
  • Diversas aplicações na medicina como cateteres, válvulas cardíacas, marca-passo, implantes ortopédicos;
  • Produtos para limpar materiais tóxicos;
  • Produtos cosméticos;
  • Sistemas de filtração do ar e da água.
  • Microprocessadores e equipamentos eletrônicos em geral;
  • Polimento de faces e superfícies com nanotecnologia sem micro-riscos.

Produtos em desenvolvimento

As aplicações mais simples da nanotectologia talvez sejam as mais promissoras. A criação do material mais escuro do mundo, que absorve mais de 99,9% de toda a luz que recebe[7] pode permitir um novo patamar no aproveitamento da radiação solar para geração de energia elétrica. Outra área de desenvolvimento promissor da nanotecnologia é a geração de eletricidade em termopar (Efeito Seebeck) semicondutor. Semicondutores não são indicados para um termopar de energia elétrica através do calor na escala macroscópica. Sabe-se, contudo, que junções semicondutoras podem gerar energia elétrica através da luz recebida em células fotovoltaicas e nesse sentido estuda-se converter calor diretamente em energia elétrica com semicondutores na escala da nanotecnologia. Na mesma linha estuda-se refrigerar um ambiente através de termopares da nanotecnologia em efeito análogo (Efeito Peltier)[carece de fontes?].

fonte:wikipedia

Software

 
Uma árvore binária é uma estrutura de dados.

Na Ciência da computação, uma estrutura de dados é um modo particular de armazenamento e organização de dados em um computador de modo que possam ser usados eficientemente.[1][2]

Diferentes tipos de estrutura de dados são adequadas a diferentes tipos de aplicação e algumas são altamente especializadas, destinando-se a algumas tarefas específicas. Por exemplo, as B-trees são particularmente indicadas para a implementação de bases de dados , enquanto que a implementação de compiladores geralmente requer o uso de tabela de dispersão para a busca de identificadores.

Estruturas de dados e algoritmos são temas fundamentais da ciência da computação, sendo utilizados nas mais diversas áreas do conhecimento e com os mais diferentes propósitos de aplicação. Sabe-se que algoritmos manipulam dados. Quando estes dados estão organizados (dispostos) de forma coerente, caracterizam uma forma, uma estrutura de dados. A organização e os métodos para manipular essa estrutura é que lhe conferem singularidade.

As estruturas de dados são chamadas tipos de dados compostos que dividem-se em homogêneos (vetores e matrizes) e heterogêneos (registros). As estruturas homogêneas são conjuntos de dados formados pelo mesmo tipo de dado primitivo. As estruturas heterogêneas são conjuntos de dados formados por tipos de dados primitivos diferentes (campos do registro) em uma mesma estrutura. A escolha de uma estrutura de dados apropriada pode tornar um problema complicado em um de solução relativamente simples. O estudo das estruturas de dados está em constante desenvolvimento (assim como o de algoritmos), mas, apesar disso, existem certas estruturas clássicas que se comportam como padrões.

Índice

  • 1 Estruturas de dados clássicas
    • 1.1 Vetores ou arrays
    • 1.2 Lista
    • 1.3 Fila
    • 1.4 Pilha
    • 1.5 Árvores
      • 1.5.1 Árvores binárias
    • 1.6 Grafo
    • 1.7 Tabela de hashing
  • 2 Referências
  • 3 Ver também

Estruturas de dados clássicas

Vetores ou arrays


VetoresPB, ou vectoresPE ou arrays são estruturas de dados lineares e estáticas, isto é, são compostas por um número fixo (finito) de elementos de um determinado tipo de dados. O tempo de acesso aos elementos de um vetor é muito rápido, sendo considerado constante: o acesso aos elementos é feito pelo seu índice no vetor. Porém, a remoção de elementos pode ser custosa se não for desejável que haja espaços "vazios" no meio do vetor, pois nesse caso é necessário "arrastar" de uma posição todos os elementos depois do elemento removido.

Essa é uma estrutura muito recomendada para casos em que os dados armazenados não mudarão, ou pouco mudarão, através do tempo.

Lista


Uma Lista é uma estrutura de dados linear. Uma lista ligada, também chamada de encadeada, é linear e dinâmica, é composta por nós que apontam para o próximo elemento da lista, com exceção do último, que não aponta para ninguém. Para compor uma lista encadeada, basta guardar seu primeiro elemento.

Fila


As filas são estruturas baseadas no princípio FIFO (first in, first out), em que os elementos que foram inseridos no início são os primeiros a serem removidos. Uma fila possui duas funções básicas: ENQUEUE, que adiciona um elemento ao final da fila, e DEQUEUE, que remove o elemento no início da fila. A operação DEQUEUE só pode ser aplicado se a fila não estiver vazia, causando um erro de underflow ou fila vazia se esta operação for realizada nesta situação.

Pilha


As pilhas são estruturas baseadas no princípio LIFO (last in, first out), na qual os dados que foram inseridos por último na pilha serão os primeiros a serem removidos. Existem duas funções que se aplicam a todas as pilhas: PUSH, que insere um dado no topo da pilha, e POP, que remove o item no topo da pilha.

Árvores


Uma árvore é uma estrutura de dados em que cada elemento tem um ou mais elementos associados, podendo definir-se uma árvore recursivamente como:

  1. uma estrutura (uma árvore);
  2. um nó (designado por raiz), que contém a informação a armazenar e um conjunto finito de árvores (as sub-árvores).
  3. Não Existe árvores vazias, no minímo haverá um nó raiz(que não possui pai)

Cada árvore tem apenas uma raiz. Além disso, os elementos associados a cada nó são habitualmente chamados de filhos desses nós. Os nós sem filhos de uma árvore são chamados de folhas.

Árvores binárias


Uma árvore binária é uma árvore em que cada nó tem no máximo dois filhos. São muito utilizadas como estruturas de buscas, como árvores de busca binária e árvores AVL.

Grafo


Tabela de hashing

fonte:wikipedia

Software

 

Um algoritmo é uma sequência finita de instruções bem definidas e não ambíguas, cada uma das quais pode ser executada mecanicamente num período de tempo finito e com uma quantidade de esforço finita.

O conceito de algoritmo é frequentemente ilustrado pelo exemplo de uma receita culinária, embora muitos algoritmos sejam mais complexos. Eles podem repetir passos (fazer iterações) ou necessitar de decisões (tais como comparações ou lógica) até que a tarefa seja completada. Um algoritmo corretamente executado não irá resolver um problema se estiver implementado incorretamente ou se não for apropriado ao problema.

Um algoritmo não representa, necessariamente, um programa de computador, e sim os passos necessários para realizar uma tarefa. Sua implementação pode ser feita por um computador, por outro tipo de autômato ou mesmo por um ser humano. Diferentes algoritmos podem realizar a mesma tarefa usando um conjunto diferenciado de instruções em mais ou menos tempo, espaço ou esforço do que outros. Tal diferença pode ser reflexo da complexidade computacional aplicada, que depende de estruturas de dados adequadas ao algoritmo. Por exemplo, um algoritmo para se vestir pode especificar que você vista primeiro as meias e os sapatos antes de vestir a calça enquanto outro algoritmo especifica que você deve primeiro vestir a calça e depois as meias e os sapatos. Fica claro que o primeiro algoritmo é mais difícil de executar que o segundo apesar de ambos levarem ao mesmo resultado.

O conceito de um algoritmo foi formalizado em 1936 pela Máquina de Turing de Alan Turing e pelo cálculo lambda de Alonzo Church, que formaram as primeiras fundações da Ciência da computação.

Índice

  • 1 Etimologia
  • 2 Formalismo
    • 2.1 Término do algoritmo
  • 3 Implementação
  • 4 Análise de algoritmos
  • 5 Classificação
    • 5.1 Classificação por implementação
    • 5.2 Classificação por paradigma
    • 5.3 Classificação por campo de estudo
    • 5.4 Classificação por complexidade
  • 6 Referências
  • 7 Ver também
  • 8 Ligações externas

Etimologia

A palavra algoritmo tem origem no sobrenome, Al-Khwarizmi, do matemático persa do século IX Mohamed ben Musa, cujas obras foram traduzidas no ocidente cristão no século XII, tendo uma delas recebido o nome Algorithmi de numero indorum, sobre os algoritmos usando o sistema de numeração decimal (indiano). Outros autores, entretanto, defendem a origem da palavra em Al-goreten (raiz - conceito que se pode aplicar aos cálculos).[1]

Formalismo

Fluxograma, um exemplo de algoritmo imperativo. O estado em vermelho indica a entrada do algoritmo enquanto os estados em verde indicam as possíveis saídas.

Um programa de computador é essencialmente um algoritmo que diz ao computador os passos específicos e em que ordem eles devem ser executados, como por exemplo, os passos a serem tomados para calcular as notas que serão impressas nos boletins dos alunos de uma escola. Logo, o algoritmo pode ser considerado uma sequência de operações que podem ser simuladas por uma máquina de Turing completa.

Quando os procedimentos de um algoritmo envolvem o processamento de dados, a informação é lida de uma fonte de entrada, processada e retornada sob novo valor após processamento, o que geralmente é realizado com o auxílio de uma ou mais estrutura de dados.

Para qualquer processo computacional, o algoritmo precisa estar rigorosamente definido, especificando a maneira que ele se comportará em todas as circunstâncias. A corretividade do algoritmo pode ser provada matematicamente, bem como a quantidade assintótica de tempo e espaço (complexidade) necessários para a sua execução. Estes aspectos dos algoritmos são alvo da análise de algoritmos.

A maneira mais simples de se pensar um algoritmo é por uma lista de procedimentos bem definida, na qual as instruções são executadas passo a passo a partir do começo da lista, uma idéia que pode ser facilmente visualizada através de um fluxograma. Tal formalização adota as premissas da programação imperativa, que é uma forma mecânica para visualizar e desenvolver um algoritmo. Concepções alternativas para algoritmos variam em programação funcional e programação lógica.

Término do algoritmo

Alguns autores restringem a definição de algoritmo para procedimentos que eventualmente terminam. Marvin Minsky constatou que se o tamanho de um procedimento não é conhecido de antemão, tentar descobri-lo é um problema indecidível, já que o procedimento pode ser executado infinitamente, de forma que nunca se terá a resposta. Alan Turing provou em 1936 que não existe máquina de Turing para realizar tal análise para todos os casos, logo não há algoritmo para realizar tal tarefa para todos os casos. Tal condição é conhecida atualmente como problema da parada.

Para algoritmos intermináveis o sucesso não pode ser determinado pela interpretação da resposta e sim por condições impostas pelo próprio desenvolvedor do algoritmo durante sua execução.

Implementação

A maioria dos algoritmos é desenvolvida para ser implementada em um programa de computador. Apesar disso eles também podem ser implementados por outros modos tais como uma rede neural biológica (tal como no cérebro quando efetuamos operações aritméticas) em circuitos elétricos ou até mesmo em dispositivos mecânicos.

Para programas de computador existe uma grande variedade de linguagens de programação, cada uma com características específicas que podem facilitar a implementação de determinados algoritmos ou atender a propósitos mais gerais.

Análise de algoritmos


A análise de algoritmos é um ramo da ciência da computação que estuda as técnicas de projeto de algoritmos e os algoritmos de forma abstrata, sem estarem implementados em uma linguagem de programação em particular ou implementadas de algum outro modo. Ela preocupa-se com os recursos necessários para a execução do algoritmo tais como o tempo de execução e o espaço de armazenamento de dados. Deve-se perceber que para um dado algoritmo pode-se ter diferentes quantidades de recursos alocados de acordo com os parâmetros passados na entrada. Por exemplo, se definirmos que o fatorial de um número natural é igual ao fatorial de seu antecessor multiplicado pelo próprio número, fica claro que a execução de fatorial(10) consome mais tempo que a execução de fatorial(5).

Um meio de exibir um algoritmo a fim de analisá-lo é através da implementação por pseudocódigo em português estruturado. O exemplo a seguir é um algoritmo em português estruturado que retorna (valor de saída) a soma de dois valores (também conhecidos como parâmetros ou argumentos, valores de entrada) que são introduzidos na chamada da função:

Algoritmo "SomaDeDoisValores";

variável:

SOMA,A,B: inteiro;
inicio
Escreva("Digite um numero");
Leia(A);
escreva("digite outro numero");
leia(B);
SOMA ← A + B;
escreva(SOMA);
fim.

Classificação

Classificação por implementação

Pode-se classificar algoritmos pela maneira pelo qual foram implementados.

  • Recursivo ou iterativo - um algoritmo recursivo possui a característica de invocar a si mesmo repetidamente até que certa condição seja satisfeita e ele é terminado, que é um método comum em programação funcional. Algoritmos iterativos usam estruturas de repetição tais como laços, ou ainda estruturas de dados adicionais tais como pilhas, para resolver problemas. Cada algoritmo recursivo possui um algoritmo iterativo equivalente e vice-versa, mas que pode ter mais ou menos complexidade em sua construção.
  • Lógico - um algoritmo pode ser visto como uma dedução lógica controlada. O componente lógico expressa os axiomas usados na computação e o componente de controle determina a maneira como a dedução é aplicada aos axiomas. Tal conceito é base para a programação lógica.
  • Serial ou paralelo - algoritmos são geralmente assumidos por serem executados instrução a instrução individualmente, como uma lista de execução, o que constitui um algoritmo serial. Tal conceito é base para a programação imperativa. Por outro lado existem algoritmos executados paralelamente, que levam em conta as arquiteturas de computadores com mais de um processador para executar mais de uma instrução ao mesmo tempo. Tais algoritmos dividem os problemas em subproblemas e o delegam a quantos processadores estiverem disponíveis, agrupando no final o resultado dos subproblemas em um resultado final ao algoritmo. Tal conceito é base para a programação paralela. De forma geral, algoritmos iterativos são paralelizáveis; por outro lado existem algoritmos que não são paralelizáveis, chamados então problemas inerentemente seriais.
  • Determinístico ou não-determinístico - algoritmos determinísticos resolvem o problema com uma decisão exata a cada passo enquanto algoritmos não-determinísticos resolvem o problema ao deduzir os melhores passos através de estimativas sob forma de heurísticas.
  • Exato ou aproximado - enquanto alguns algoritmos encontram uma resposta exata, algoritmos de aproximação procuram uma resposta próxima a verdadeira solução, seja através de estratégia determinística ou aleatória. Possuem aplicações práticas sobretudo para problemas muito complexos, do qual uma resposta correta é inviável devido à sua complexidade computacional.

Classificação por paradigma

Pode-se classificar algoritmos pela metodologia ou paradigma de seu desenvolvimento, tais como:

  • Divisão e conquista - algoritmos de divisão e conquista reduzem repetidamente o problema em sub-problemas, geralmente de forma recursiva, até que o sub-problema é pequeno o suficiente para ser resolvido. Um exemplo prático é o algoritmo de ordenação merge sort. Uma variante dessa metodologia é o decremento e conquista, que resolve um sub-problema e utiliza a solução para resolver um problema maior. Um exemplo prático é o algoritmo para pesquisa binária.
  • Programação dinâmica - pode-se utilizar a programação dinâmica para evitar o re-cálculo de solução já resolvidas anteriormente.
  • Algoritmo ganancioso - um algoritmo ganancioso é similar à programação dinâmica, mas difere na medida em que as soluções dos sub-problemas não precisam ser conhecidas a cada passo, uma escolha gananciosa pode ser feita a cada momento com o que até então parece ser mais adequado.
  • Programação linear
  • Redução - a redução resolve o problema ao transformá-lo em outro problema. É chamado também transformação e conquista.
  • Busca e enumeração - vários problemas podem ser modelados através de grafos. Um algoritmo de exploração de grafo pode ser usado para caminhar pela estrutura e retornam informações úteis para a resolução do problema. Esta categoria inclui algoritmos de busca e backtracking.
  • Paradigma heurístico e probabilístico - algoritmos probabilísticos realizam escolhas aleatoriamente. Algoritmos genéticos tentam encontrar a solução através de ciclos de mutações evolucionárias entre gerações de passos, tendendo para a solução exata do problema. Algoritmos heurísticos encontram uma solução aproximada para o problema.

Classificação por campo de estudo

Cada campo da ciência possui seus próprios problemas e respectivos algoritmos adequados para resolvê-los. Exemplos clássicos são algoritmos de busca, de ordenação, de análise numérica, de teoria de grafos, de manipulação de cadeias de texto, de geometria computacional, de análise combinatória, de aprendizagem de máquina, de criptografia, de compressão de dados e de interpretação de texto.

Classificação por complexidade


Alguns algoritmos são executados em tempo linear, de acordo com a entrada, enquanto outros são executados em tempo exponencial ou até mesmo nunca terminam de serem executados. Alguns problemas possuem múltiplos algoritmos enquanto outros não possuem algoritmos para resolução.

fonte:wikipedia

Software

 

MAIS INFORMAÇÕES DO SETOR DE SOFTWARE

Sistemas complexos

Um sistema é dito ser um sistema complexo quando suas propriedades não são uma consequência natu [ ... ]


NF-e ou Nota fiscal eletrônica

article thumbnail

Pela definição oficial brasileira, uma nota fiscal eletrônica (NF-e) é "um documento de existên [ ... ]


Ferramenta CASE

Ferramentas CASE (do inglês Computer-Aided Software Engineering) é uma classificação que abran [ ... ]


BackTrack

article thumbnail

Backtrack

Backtrack 5 Desenvolvedor Max Moser, Mati Aharoni, Martin J. Muench  [ ... ]


Hierarquia DIKW

DIKW é uma hierarquia informacional utilizada principalmente nos campos da Ciência da Informação [ ... ]


Lista de softwares Públicos

em 11/11/2011LISTA DE SOFTARES PÚBLICOSSoftware Público Brasileiro InVesalius  (542 [ ... ]


Cibernética

Cibernética é uma tentativa de compreender a comunicação e o controle de máquinas, seres vivo [ ... ]


Análise de pontos de função

Análise de Pontos de Função (APF) é uma técnica para a medição de projetos de desenvolvimen [ ... ]


Desenvolvimento web

article thumbnail

Desenvolvimento web é o termo utilizado para descrever o desenvolvimento de sítios, na Internet  [ ... ]


EAD - Educação a distância

Tele-educação, Educação a Distância ou Ensino a Distância (EaD) [nota 1] é a modalidade de en [ ... ]


Software proprietário

Software proprietário ou não livre é aquele cuja cópia, redistribuição ou modificação sã [ ... ]


Gestão de projetos

Gerência de projetos, gestão de projetos, gerenciamento de projetos ou ainda administração de pr [ ... ]


Qualidade de software

A qualidade de software é uma área de conhecimento da engenharia de software que objetiva garantir [ ... ]


Outsourcing

 Outsourcing (em inglês, "Out" significa "fora" e "source" ou "sourcing" significa fonte)  [ ... ]


Git - sistema de controle de versão

article thumbnail

Origem: Wikipédia, a enciclopédia livre. Git Desenvolvedor Linus Torvalds, Ju [ ... ]


Engenharia de software

Engenharia de software é uma área do conhecimento da computação voltada para a especificação,  [ ... ]


Sistemas de CRM

Os sistemas de CRM.. são aplicativos de informação desenvolvidos com o objetivo de auxiliar na ge [ ... ]


ITIL

Information Technology Infrastructure Library (ITIL) é um conjunto de boas práticas a serem aplica [ ... ]


Larry Page

article thumbnail

Lawrence Edward Page Larry Page Nascimento 26 de Março de 1973 (38 anos) [ ... ]


Rede social

article thumbnail


Rede social Uma rede social é uma estrutura social composta por pessoas ou organizaçõ [ ... ]


Desenvolvimento de software

Na computação, o desenvolvimento de software é o ato de elaborar e implementar um sistema computa [ ... ]


Processo de desenvolvimento de software

Um processo de desenvolvimento de software é um conjunto de atividades, parcialmente ordenadas, c [ ... ]


Software livre nos governos

Nos últimos anos a questão do software livre nos governos está na ordem do dia. Alguns governos c [ ... ]


ITILv3

A versão 3 da biblioteca ITIL foi lançada mundialmente em maio de 2007 como uma atualização comp [ ... ]


Business-to-business

Business to Business - B2B é o nome dado ao comércio associado a operações de compra e venda, de [ ... ]


Nanotecnologia do carbono

article thumbnail

A nanotecnologia do carbono é o ramo da nanotecnologia que estuda a manipulação de estruturas de  [ ... ]


SOA - Arquitetura orientada a Serviços

article thumbnail

Service-Oriented Architecture (SOA), pode ser traduzido como arquitetura orientada a serviços, e é [ ... ]


Banco de dados

article thumbnail

Bancos de dados, ou bases de dados (em Portugal), são coleções de informações que se relacion [ ... ]


CMMI

O CMMI (Capability Maturity Model Integration) é um modelo de referência que contém práticas (Ge [ ... ]


Pequena e média empresa de alta tecnologia (PMET)

A globalização eo avanço tecnológico levarm a evolução dos processos produtivos e à entrada  [ ... ]


Governança em T.I (Governança corporativa)

Governança corporativa (português brasileiro) ou governo das sociedades ou das empresas (portuguê [ ... ]


Struts framework

Struts é um framework de desenvolvimento da camada controladora, numa estrutura seguindo o padrã [ ... ]


Gestão do conhecimento

article thumbnail

A definição clássica de conhecimento. A Gestão do Conhecimento, do inglês KM - Knowled [ ... ]


Análise de requisitos de software

Análise de requerimento de software Origem: Wikipédia, a enciclopédia livre. Na engenharia de [ ... ]


Outsourcing em gestão

O outsourcing em gestão é uma ferramenta administrativa em que o terceririzado realiza a ativida [ ... ]


COA - Control Oriented Architecture

Control Oriented Architecture - COA é uma arquitetura de camadas de controle que permite configur [ ... ]


Parque Tecnologico Capital Digital (Cidade Digital)

Toda a informação será disponibilizada através do site da secretaria de Ciência e Tecnologia do [ ... ]


ArgoUML

ArgoUML é uma aplicação open source que usa UML para modelar o desenho de software de computado [ ... ]


Sistema de gerenciamento de conteúdo

Sistema de Gestão de Conteúdo (SGC) - do inglês Content Management Systems (CMS) mas igualmente d [ ... ]


Paradigmas de programação

Um paradigma de programação fornece e determina a visão que o programador possui sobre a estrut [ ... ]


Videoconferência

article thumbnail

Videoconferência entre militares em 2006. Videoconferência é uma tecnologia que permite  [ ... ]


Teoria de sistemas

A teoria de sistemas estuda, de modo interdisciplinar, a organização abstrata de fenômenos, indep [ ... ]


Software educativo

article thumbnail

Software educativo é um software cujo principal propósito é o ensino ou o auto-aprendizado.[1]  [ ... ]


Rede complexa

Rede Complexa é uma forma de modelar a natureza onde as propriedades de um elemento são resumidas [ ... ]


Otimização em engenharia de software

A Otimização em engenharia de software é uma recente área de pesquisa que trata da aplicação [ ... ]


Modelo de entidades e relacionamentos

O modelo de entidades e relacionamentos é um modelo abstrato cuja finalidade é descrever, de man [ ... ]


Steve Ballmer

article thumbnail

Steve Ballmer Nome completo Steven Anthony Ballmer Nascimento 24 de Março [ ... ]


Administração de dados

Administração de dados é a função responsável por desenvolver e administrar de modo central [ ... ]


CobiT

Origem: Wikipédia, a enciclopédia livre. COBIT®, do inglês, Control Objectives for Information  [ ... ]


PHP

article thumbnail

PHP Paradigma procedural, reflexão, orientação a objetos, funcional Surg [ ... ]


Artigos Relacionados

Pluriverso - Inteligência em Tecnologia

Pluriverso - Inteligência em Tecnologia


Ed.Centro Sul, 2°Andar, SCIA, Qd. 14, Conj. 07, Lt 1, S. Ind.
CEP: 71.250-135, Brasília-DF.  
Como Chegar
| Atendimento  


+55 (61) 4141.5555

Serviços

Desenvolvimento de Software
Oursourcing de T.I
Consultoria em Tecnologia
Licitação com o Governo

Produtos

ERP, CRM, Colaboração
Cloud Computing

Soluções
Soluções em Outsourcing de Tecnologia
Integração de Software
Avaliação de nível tecnológico
Cálculo de custos de T.I
Softwares customizados


Porque escolher a Pluriverso

Blog Corporativo
Blog do Software

Conheça a Pluriverso
quem somos
verticais de atuação
portifólio
casos de sucesso

Atendimento
contatos
sala de imprensa
como chegar
Trabalhe conosco

desenvolvimento de software