Apache Mahout

Marcio Junior Vieira

Marcio Junior Vieira

  • 20 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Professor da Pós-Graduação em Big Data e Data Science da UniBrasil.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento em Docker - Fundamental

O treinamento fundamental em Docker prepara profissionais para o mercado de gerenciamento de containers. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes nuvem públicas ou privadas.


Conteúdo Programático.

Conceitual Docker.

  • Introdução a Containers.
  • Fundamentos do Doker.
  • Ecossistema de Containers.
  • Containers X Virtual Machines.
  • Cases do uso de Docker.
  • Volumes e Imagens.
  • Versões e Edições do Docker.
  • Licenças do Docker.
  • Namespaces.
  • Open Source X Free Software.
  • Sistemas Operacionais Suportados.
  • Docker Hub.
  • Empresas usando Docker no Mundo.
  • Empresas usando Docker no Brasil
  • Comunidade Docker.
  • Docker Enterprise Edition.

Instalação do Docker.

  • Instalação do Docker no Linux.
  • Configurando Docker.
  • Baixando container com git pull.
  • Container com deamon.

Docker CLI

  • Conhecendo o CLI do Docker.
  • Principais comando Docker.
  • Preparando ambiente com minikube
  • Docket Build.
  • Acessando container via console.
  • Apagando containers.
  • Comunicação entre containers.

Aplicações com Docker

  • Adicionando uma aplicação em containers.
  • Python e Docker.
  • Aplicativos em vários containers.
  • Exemplo prático de uma aplicação web Python.

Volumes no Docker

  • Criando voumes.
  • Gerenciando volumes.
  • Personalizando volumes.
  • Plugins de volumes.
  • Persistência de volumes.
  • Backups e restore de volumes.
  • Apagando volumes.

Segurança e Rede.

  • Autenticação, Controle de autorização.
  • Rede Docker.
  • Configuração de portas.
  • DNS e Links.

Docker Compose e Dockerfile.

  • O estrutura do arquivo YML.
  • usando o docker-compose.
  • Compose CLI.
  • Dockerfile.
  • Execução de aplicativos Docker Compose.
  • Docker Registry e Compose.

Gerenciamento do Docker

  • Docker Registry.
  • Restart policy.
  • Docker Multi cloud.
  • Deploy de aplicações.
  • Limpeza e manutenção.
  • Gerenciando os services.
  • API Rest do Docker.
  • Docker Swarm.
  • Docker em Clouds.
  • Docker Machine.
  • Documentação oficial.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento básico de comandos e servidores Linux.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 4 Cores
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Docker e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Docker e cursos Docker. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento Zeebe - Workflow Engine for Microservices Orchestration

Sobre o Treinamento

O treinamento fundamental Zeebe Workflow Engine for Microservices Orchestration é voltado para usuários e principalmente desenvolvedores e arquitetos de software pretendem conhecer o processo de implementação de orquestração de micro serviços de workflows para grande volume de informações e processos.

Calendário de turmas abertas

Somente turmas fechadas.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • O que é um fluxo de trabalho (Workflow)
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução ao CMMN 1.1.
  • O Projeto Camunda.
  • Projeto Zeebe.
  • Zeebe x Camunda.
  • Licenciamento (Free Software X Open Source).
  • Zeebe Community License.
  • Empresas usando Camunda/Zeebe no mundo.
  • Empresas usando Camunda/Zeebe no Brasil.
  • Versões do Zeebe.
  • Comunidade Camunda no Brasil e no Mundo.
  • Livros, sites, documentação e referências complementares.

BPM e Automação de processos

  • Modelagem de processo com BPMN 2.0.
  • Principais Elementos da Notação BPMN.
  • Gestão de Decisão com DMN 1.1.
  • Gerenciamento de Casos com CMMN 1.1.
  • Automação do processo.
  • Cadeia de ferramentas e metodologia.
  • Padrões e melhores práticas.
  • Elementos BPMN suportados pelo Zeebe.

Aplicações de processo

  • Modelagem de processo com BPMN 2.0.
  • Principais Elementos da Notação BPMN.
  • Gestão de Decisão com DMN 1.1.
  • Gerenciamento de Casos com CMMN 1.1.
  • Automação do processo.
  • Cadeia de ferramentas e metodologia.
  • Padrões e melhores práticas.
  • Elementos BPMN suportados pelo Zeebe.

Componentes  do Zeebe

  • Zeebe Distribution.
  • Zeebe Broker.
  • Zeebe Operate.
  • Elasticsearch.
  • Zeebe Modeler.
  • Kibana.

Instalação e Configuração

  • Instalação do Ambiente.
  • Pré-requisitos.
  • Instalando o Zeebe Broker.
  • Instalando o Zeebe Simple Monitor.
  • Instalando o Zeebe Operate.
  • Instalação do Zeebe Modeler.
  • Instalando o Kibana.

Arquitetura.

  • Arquitetura do Zeebe.
  • Workflow.
  • JobWorker.
  • Partitions.
  • Protocols.
  • Fases do Processamento interno.
  • Exporters.
  • Clustering.

Desenvolvendo processos com Zeebe.

  • Criando o Workflow.
  • Deploy.
  • Iniciando uma instância.
  • Completando tarefas.
  • Workflow Lifecycles.
  • Variáveis
  • Expressões.
  • BPMN Primer.
  • BPMN Coverage.
  • Data Flow.
  • Tasks.
  • Gateways.
  • Events.
  • Sub Processos.
  • Markers.
  • YAML Workflows.
  • Message Correlation.
  • Incidents.
  • Exporters.

Conhecendo o Zeebe gRPC.

  • Desenvolvendo com Java.
  • ActivateJobs RPC.
  • CancelWorkflowInstance RPC.
  • CompleteJob RPC.
  • CreateWorkflowInstance RPC.
  • CreateWorkflowInstanceWithResult RPC.
  • DeployWorkflow RPC.
  • FailJob RPC.
  • PublishMessage RPC.
  • ResolveIncident RPC.
  • SetVariables RPC.
  • ThrowError RPC.
  • Topologia RPC.
  • UpdateJobRetries RPC.
  • Interação com outras linguagens.

Zeebe Cluster.

  • Zeebe sobre Kubernetes.
  • Cluster.
  • Worker.
  • Gateway.
  • Zeebe operator.
  • Kibana.

Carga Horária:

  • 24 Horas.

Pré-Requisitos:

  • Conhecimento básico de Java
  • Conhecimento em Java IDE (Eclipse, IntelliJ, NetBeans).
  • Conhecimento de Container/Virtual Machines.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8 GB
  • Espaço em Disco: 20 GB
  • Processador: 4 Cores.
  • Sistemas Operacionais : GNU/Linux, Windows, Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Zeebe e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Zeebe e cursos Zeebe. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Informações e Valores

Powered by BreezingForms

Instrutor

Leia mais...

Treinamento Apache Drill - Fundamental

O treinamento fundamental em Apache Drill prepara profissionais para o mercado de analise e ciência de dados, usando um mecanismos de exploração de dados de grande volume com uma diversidade de fontes de dados, e uma abstração da complexidade de suas fontes de dados de origem. O Apache Drill fornece consulta SQL colunar, distribuída e sem esquema, para Hadoop, NoSQL e outros sistemas de armazenamento tais como HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, etc. Sua saída de dados pode ser consumida por conectores JDBC, Linguagens de programação ou ainda ferramentas de Business Intelligence como Pentaho Business Intelligence e outras.


Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Drill para exploração de dados.

Público Alvo

Cientistas de dados, Analistas de Business Intelligence, DBAs, Engenheiro de dados, Desenvolvedores.

Conteúdo Programático.

Conceitual Apache Drill.

  • Introdução ao Apache Drill.
  • Introdução a Ciência de dados.
  • Introdução a Big Data.
  • Apache Drill no Ecossistema de Big Data.
  • A Apache Software Foundation.
  • Cases de Uso do Apache Apache Drill.
  • Empresas usando Apache Apache Drill.
  • Dremel/Google BigQuery X Drill.
  • Open Source X Free Software.

Instalação do Apache Drill.

  • Requisitos para instalação do Apache Drill.
  • Instalando o Apache Drill (Embeeded Mode).
  • Preparando o Cluster.
  • Instalando o Apache Drill (Distributed Mode).
  • Configurando o Apache Drill.
  • Configuramdo ZooKeeper.
  • Configurando o Storage.

Querys com Apache Drill.

  • Querys com dados delimitados.
  • Drill SQL Query Format.
  • Criando fonte de dados.
  • Definindo o ambiente de trabalho.
  • Acessando colunas em querys.
  • Cabeçalhos de Dados Delimitados.
  • Função Table.
  • Drill Data Types.
  • Trabalhando com formatos de datas.
  • Criando Views.
  • Analisando dados com Apache Drill.
  • Palavras reservadas.

Analise de Dados Complexos

  • Arrays e Maps.
  • Analisando logs com Drill.
  • Query com Nested Data.

Data Sources com Drill.

  • Múltiplos data Sources.
  • Base de dados Relacionais.
  • Query em Hadoop para Drill.
  • Query em HBase para Drill.
  • Streaming de Dados com Apache Drill e Kafka.
  • Query MongoDB com Drill.
  • Drill com Cloud Storage.

Conectando ao Apache Drill.

  • Conectando com JDBC.
  • Conectando com Python.
  • Conectando com R.
  • Conectando com Java.
  • Conectando co Ferramentas de BI.

Engenharia de dados com Apache Drill.

  • Schema-on-Read.
  • SQL Relational Model.
  • Data Source Inference.
  • File Type Inference.
  • Distributed File Scans.
  • JSON Objects.
  • Usando Drill com Parquet.

Funções do Apache Drill.

  • User-Defined Functions.
  • Drill com arquivos do Planilhas Eletrônicas (LibreOffice Calc, MS Excel, etc).
  • Geospatial Functions.
  • Networking Functions.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Drill e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Drill e cursos Apache Drill. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Consultoria em LimeSurvey

O Software LimeSurvey.

O Limesurvey é um software livre desenvolvido com o objetivo de preparar, publicar e coletar respostas de questionários. Uma vez criado um questionário, ele pode ser publicado Online (questão por questão, grupo a grupo de questões ou tudo em uma única página de questionários). O LimeSurvey permite definir como as questões serão mostradas e variar o formato dos questionários por meio de um sistema de padrões ( templates). Fornece ainda uma análise estatística básica sobre os resultados dos questionários.

O LimeSurvey possui a capacidade de gerar Tokens individualizados (chaves), de forma que apenas a pessoa que receber um token poderá acessar o questionário. Tokens são informações enviadas para a lista de pessoas, que você quer convidar para participar de um questionário, de forma a permitir maior controle do questionário disponibilizado pela Internet.

 

Funcionalidades do LimeSurvey.

  • Números ilimitados de questionários, perguntas e participantes;
  • Internacionalização e localização (Multi-linguagem);
  • Controle de acesso por usuário e grupos;
  • 20 formatos de perguntas;
  • Administração de cotas;
  • Editor HTML avançado;
  • Editor de templates para criação do seu próprio layout;
  • Interface de administração amigável e extensível;
  • Funções de importação e exportação (Texto, CSV, PDF, R (software estatístico), MS excel, open Office Calc, Br Office Calc;
  • Integração de imagem e vídeos em questionários;
  • Versão de questionário impresso;
  • Perguntas condicionais (lógicas e ramificadas);
  • Reutilização do conjunto de respostas;
  • Importação e exportação de perguntas;
  • Questionário com data de expiração automática;
  • Avaliação de questionários anônimos e não anônimos;
  • Envio de convites, lembretes e Tokens (chave de acesso) por e-mail;
  • Opção de salvar as respostas e continuar o questionário em outro momento;

Ambiente Livre e LimeSurvey.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções de Pesquisas que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em CMS Open Source pata o LimeSurvey, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de Pesquisas e Questionários em LimeSurvey, através de capacitações, eventos, cursos de LimeSurvey, workshops e treinamentos em LimeSurvey. Com profissionais com experiência de mais de 8 anos na plataforma LimeSurvey, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em LimeSurvey e se consolidamos como a principal referência em formação de tecnologias Free Software LimeSurvey para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso do LimeSurvey.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de pesquisas em sua empresa com o LimeSurvey.

Consultoria em LimeSurvey.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do LimeSurvey.
  • Consultoria na implantação com LimeSurvey integrado a portais de Internet.
  • Desenvolvimento Questionários / Pesquisas.
  • Desenvolvimento e Customizações do LimeSurvey.
  • Desenvolvimento de Templates com a identidade Visual do Cliente.
  • Consultoria e apoio ao cliente na definição de organização das pesquisas no LimeSurvey.
  • Consultoria na instalação e configuração do Ambiente LimeSurvey.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em LimeSurvey.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em LimeSurvey.

Ambientes onde podemos implementar soluções de pesquisa com LimeSurvey.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Azure.
  • Provedores (Locaweb,Uol Host, etc)

Tecnologias que somos especialistas.

  • PHP
  • MySQL, MariaDB e PostgreSQL.
  • Servers Linux.
  • CSS/HMTL
  • JavaScript/JQuery.

Conheça nossos treinamento no LimeSurvey.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de pesquisas. Entre em contato conosco.

 

Leia mais...

Treinamento Apache AirFlow - Fundamental

O treinamento fundamental em Apache AirFlow prepara profissionais para o mercado para automatizando seu fluxo de trabalho.O Apache Airflow é uma plataforma de gerenciamento de fluxo de trabalho de código aberto. Tudo começou no Airbnb em outubro de 2014 como uma solução para gerenciar os fluxos de trabalho cada vez mais complexos da empresa. Empresas como Alibaba, Airbnb, Tesla, Square e Spotify tem usado o Apache AirFlow.


Objetivo

Ministrar as principais funcionalidades e técnicas do Apache AirFlow para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático.

Conceitual Apache AirFlow.

  • Introdução ao AirFlow.
  • Introdução a ETL.
  • Introdução a Pipeline de dados.
  • Introdução a Ciência de dados.
  • A Apache Software Foundation.
  • Cases de Uso do Apache AirFlow.
  • Empresas usando Apache AirFlow.
  • Pentaho Data Integration X Hop X AirFlow.
  • DAGs

Instalação do Apache AirFlow.

  • Requisitos pata instalação.
  • Instalando o Apache AirFlow.
  • Configurando o Apache Airflow.

Características

  • Conhecendo o CLI.
  • Conexões.
  • Instância Remota AirFlow.
  • Bash/Zsh.
  • Exportando DAGs pata Imagens.
  • Data Profiling.
  • Ad Hoc Query.
  • Scheduler.
  • Executor.
  • DAG Runs.
  • Plugins.
  • Segurança
  • Time zones.

Integrações

  • Azure: Microsoft Azure.
  • AWS: Amazon Web Services.
  • Databricks.
  • GCP: Google Cloud Platform.

Métricas

  • Setup.
  • Counters.
  • Gauges.
  • Timers.

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python.
  • Básico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Funcionalidades

  • Monitorando o Apache Airflow.
  • Customizando o Apache Airflow.
  • Lendo dados de Big Data.
  • Macros.
  • Python API.
  • REST API.
  • Melhores Práticas.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache AirFlow e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos AirFlow cursos AirFlow. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento Apache Druid - Fundamental

O treinamento fundamental em Apache Druid prepara profissionais para o mercado para manipulação de dados em tempo real. Apache Druid é um armazenamento de dados distribuído, de código aberto e orientado a colunas, escrito em Java. Foi projetado para ingerir rapidamente grandes quantidades de dados de eventos e executar consultas OLAP de baixa latência nesses dados. O Druid é comumente usado em aplicativos de inteligência de negócios para analisar grandes volumes de dados históricos e em tempo real. Também é adequado para alimentar painéis analíticos rápidos, interativos e para usuários finais. Empresas como Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal tem usado o Apache Druid.


Conteúdo Programático.

Conceitual Apache Druid.

  • Introdução ao Druid.
  • Ecossistema de Big Data.
  • Introdução a Streaming Data.
  • Introdução a OLAP.
  • Introdução a Hadoop.
  • A Apache Software Foundation.
  • Introdução ao Zookeper.
  • Cases de Uso do Druid.
  • Empresas usando Druid.

Instalação do Apache Druid.

  • Instalando o Druid.
  • Configurando o Druid.
  • Importando um data Source.

Características

  • Alta Performance.
  • Real-time.
  • Analytics.
  • Database.
  • Spec.
  • Schema.

Arquitetura do Apache Druid

  • Arquitetura.
  • Middle Manager.
  • Indexing Nodes.
  • Historical Nodes.
  • Broker Nodes.
  • Cordinator Nodes.

Storage Formats

  • Segments Files.
  • Particionamento.
  • JSON, CSV, TSV.
  • ORC, Parquet, Avro.

Funcionalidade

  • Data Rollup.
  • Enconding.
  • Bitmap Indices.
  • Sketch Columns
  • Limitações.
  • Real Time Analytics.

Índices de Dados

  • Sharding.
  • Real Time Indices.
  • Streaming Ingestion.
  • Kafka Indexing Service.
  • Batch Ingestion.
  • Hadoop Index Task.
  • Index Task.
  • Interação com Apache Hive.

Querys e Druid SQL.

  • JSON Querys.
  • SQL Querys.
  • Pytho Querys.
  • R Querys.
  • Ruby Querys.
  • Javascript Querys.
  • Clojure Querys.
  • PHP Querys.
  • REST API Querys.
  • Multiple Query Types.
  • Timeseries,TopN, GroupBy, Select, Segment Metadata.
  • Parser e Planner Apache Cacique.
  • Pvot Analytics UI.

Integração

  • Druid via JDBC.
  • Druid com Hive.
  • Druid e sistemas de BI.
  • Druid Storage for Hive.

Segurança

  • Configurando Acessos.

Cluster Druid

  • Configurando o Cluster.
  • Cluster Distribuído.

 

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Druid e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Druid, cursos Druid. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento em Apache Solr - Fundamental

O treinamento fundamental em Apache Sorl prepara profissionais para o mercado de indexação textual e documental para pesquisas elásticas e eficientes de fontes de big data ou de sistemas com que pretendem embutir o Solr como motor de busca textual. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes clusterizados para gestão de buscas textuais.


Conteúdo Programático.

Conceitual Solr.

  • Introdução a Pesquisas.
  • A Apache Software Foundation.
  • Lucene/Solr.
  • Introdução ao Zookeper.
  • Solr no ecossistema de Big Data.
  • Text Analytics e Geo Search.
  • Terminologias.
  • Cases de Solr.
  • Empresas usando Solr no Brasil

Instalação do Solr.

  • Instalando um nó de Solr.
  • Iniciando o Solr.

Fundamentos do Solr

  • Arquitetura
  • Arquivos Básicos.
  • Conceitos Básicos.
  • Solr Admin UI.
  • Adicionando conteúdo ao Solr.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

Índices

  • Estrutura dos dados.
  • Formatos de dados (XML,JSON,CSV)
  • Estrutura de índices.
  • Adicionando tipos de campos personalizados.
  • String X Text.
  • Tokenizers.
  • Char filters.
  • Filters.
  • Copy fields.
  • Spacial data.
  • Spacial Filters.

Configurações

  • Configurações do Lucene
  • Configurações do Schema factory .
  • Schema API.
  • Configurações da API.
  • Gerenciando recursos.
  • Codecs.
  • Merge policy.
  • Merge Schedulers.

Cluster Solr e Tuning

  • Solr Master-Slave.
  • Solr Replication.
  • Solr Master-Master
  • Instalando um cluster Master-Slave.
  • Indexing buffer size.
  • Caches
  • Auto commit tunning
  • Warming up.

API e Lucene Search

  • Usando JSON request API
  • Pesquisas usando JSON Query
  • Funções de Agregação
  • Nested Faceting.
  • Codificando com Lucene.
  • Extraindo texto com Apache Tika.
  • Lucene Query Language.
  • Usando cursores.
  • Paginação e ordenação.
  • Querys e Funções Espaciais.

SolrCloud

  • Arquitetura do SolrCloud.
  • Usando JSON request API.
  • Solr Master-slave X SolrCloud.
  • Trabalhando com Zookeeper.
  • Sharding.

Backup

  • Backup Solr master-Slave.
  • Backup Sulor Cloud.

Monitoramento

  • Monitoramento com uso do JMX.
  • Monitoramento com SPM.
  • Métricas de Monitoramento.

Analise de dados

  • Faceting.
  • Casos de uso.
  • Campos Faceting.
  • Prefixo de Campos Faceting.
  • Range Faceting.
  • Query Faceting.
  • Sort Faceting.
  • Hierarquia do Faceting.
  • Intervalo do Faceting.

 

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Solr e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Solr e cursos Solr. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento Python para Devops

O treinamento Python para Devops prepara profissionais para o mercado junto aos conceitos de DevOps. Seu conteúdo programático foi desenvolvido para que profissionais possam desenvolver scripts em Python com foco na administração de tarefas de ambientes computacionais, extração de dados entra databases (SQL e NoSQL), consumo e extração de APIs e automação de infraestrutura em diferentes serviços de nuvens.


Conteúdo Programático.

Introdução a Linguagem Python e a DevOps.

  • O que é Python?
  • O que é DevOps?
  • Apresentando Python.
  • IDE para Python.

Instalação o Python.

  • Instalação e configuração.
  • Versões do Python.
  • Conhecendo o pip.
  • Como instalar pacotes.
  • Instalando o boto3.
  • Instalando IDEs Python.

Programando em Python.

  • Tipos de dados em Python
  • Trabalhando com strings, números e booleanos.
  • Trabalhando com listas, tuplas e dicionários.
  • Estrutura de dados e conversão de tipos.
  • Operadores e condições.
  • Blocos de repetições.
  • Controle de Loop.
  • Estrutura do bloco de exceção.
  • Tipos de exceções.
  • Criar exceções.
  • Manipular arquivos.

Funções e Orientação Objeto.

  • Escopo de variáveis e sintaxe de funções.
  • Parâmetros e argumentos.
  • Funções anônimas.
  •  Método construtor e atributos.
  • Herança e Polimorfismo.

Manipulação de Banco de Dados.

  • SQL X NoSQL.
  • Consultando Dados PostgreSQL com Python.
  • Comando Básicos SQL em PostgreSQL.
  • Criando um database.
  • Inserindo registros.
  • Consultando Dados MongoDB com Python.
  • Comandos Básicos MongoDB.
  •  Criando collection.
  • Inserindo documento e subdocumentos.
  • Trabalhando e Gravando Logs no MongoDB.

Consumindo e Construindo APIs .

  • Modulo Requests.
  • POST, GET, PUT, DELETE.
  • Instalando Flask para construir uma API.
  • Conhecendo Estrutura Básica.
  • Criando Rotas e Views.
  • Conhecento e Trabalhando com JSON.
  • REST API.

PyOPS.

  • Python e Docker.
  • Importando Módulos.
  • Criando Regras de Negócios.
  • Comunicação entre Módulos MongoDB e Docker
  • Realizando Deploy de Uma Aplicação.

Python para Administração da AWS.

  • Básico de AWS.
  • Criando o módulo AWS.
  • Listar instâncias EC2.
  • Criando nova instância.
  • Gerenciando Instância.
  • Deploy de aplicação

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.

Requisitos:

  • Os alunos devem ter ou criar uma conta na AWS com antecedência.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Python e cursos Python. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento em Kubernetes - Fundamental

O treinamento fundamental em Kubernetes prepara profissionais para o mercado de orquestração de containers. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes nuvem públicas ou privadas.


Conteúdo Programático.

Conceitual Kubernetes.

  • Introdução a Containers.
  • Orquestração de containers.
  • Fundamentos do Kubernetes,
  • Componentes do Cluster Kubernetes.
  • Objetos do Cluster Kubernetes.
  • Ecossistema de Containers.
  • Containers X Virtual Machines.
  • Cases do uso de Kubernetes.
  • Empresas usando Kubernetes no Mundo.
  • Empresas usando Kubernetes no Brasil
  • Comunidade Kubernetes.

Instalação do Kubernetes.

  • Instalação do Kubernetes.
  • Configurando o banco de dados.

Minikube

  • Configurando um cluster Kubernetes de nó único com o Minikube,
  • Preparando ambiente com minikube

Docker

  • Adicionando uma aplicação em containers
  • docker-compose.
  • Criando seu primeiro pod.
  • Comunicação entre containers

Arquitetura

  • Arquitetura do Kubernetes - Visão geral
  • API e Acessos.
  • Objetos OPI.
  • Gerenciando Estado com Implantações.
  • Serviços.
  • Volumes e Dados.
  • Kubernetes Building Blocks.
  • Replicando pods.
  • Kubernetes no Google Could, Azure  e Amazon.

Segurança.

  • Autenticação, Controle de autorização e admissão.

Assuntos complementares.

  • Ingress.
  • Scheduling.
  • Log e Solução de Problema.
  • Definições de Recursos Customizados.
  • Helm.
  • Alta Disponibilidade.
  • Utilizando o objeto StatefulSet.

Cluster kubernetes

  • Montando um cluster.
  • Configurando acesso ao cluster.
  • Deploy de aplicações.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Kubernetes e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos kubernetes e cursos kubernetes. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Consultoria em Camunda BPM

O Software Camunda Community.

O Camunda BPM é um software internacional para modelagem e execução de processos de negocio, com um de seus diferenciais os suportes as metodologias e especificações BPMN 2.0, CMMN 1.1 e DMN 1.1 O Camunda BPM é um  workflow com código aberto e plataforma de automação de decisão. O Camunda BPM é fornecido com ferramentas para criar modelos de fluxo de trabalho e decisão, operar modelos implantados na produção e permitir que os usuários executem tarefas de fluxo de trabalho a eles atribuídas.

 

BPM - Gerenciamento de processos de Negócio.

A plataforma Alfresco Enterprise Management Content (ECM) é uma plataforma de ECM aberta e  poderosa que é fácil de estender, personalizar e integrar com suas aplicações e processos existentes. A plataforma fornece acesso móvel fácil de conteúdo, proporciona ao usuário uma experiência de colaboração simples, mas rica e ajuda os clientes a maximizar o valor de seu conteúdo. É a plataforma ECM preferida para milhares de empresas no mundo.

Funcionalidades do Alfresco.

  • Gestão de Documentos Eletrônicos
  • Pesquisas com Alta Performance (metadados e conteúdo).
  • Gerenciamento de conteúdo Web.
  • Suporte Multi-plataforma (Windows, Linux e Mac OS).
  • Suporte a Cloud e Virtualização.
  • Interoperabilidade e Integração (SOAP, CMIS,REST, IMAP).
  • 100% Web e Mobile.
  • Interface simples e colaborativa (Web 2.0).
  • Previews de Documentos.
  • Wikis, Blogs, Fóruns, Links.
  • Gestão de acesso por grupos ou usuários.
  • Gestão de Metadados, classificação.
  • Controle de Versão e Rastreabilidade
  • Workflow e BPM Integrado com o Activiti BPM.

Ambiente Livre e Alfresco Community.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções  de Enterprise Content Management que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios,  pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em BPM e ECM Open Source com a Plataforma Alfresco, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de ECM e BMP Open Source Alfresco, através de capacitações, eventos, cursos de alfresco, workshops e treinamentos de Alfresco. Com profissionais com experiência de mais de 8 anos na plataforma Alfresco, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em Alfresco e se consolidamos como a principal referência em formação de tecnologias open source Alfresco para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso da plataforma Alfresco.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de documentos em sua empresa com o Alfresco.

Consultoria em Alfresco.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do Alfresco Plataform
  • Consultoria na implantação com Alfresco Integrado ao Activiti BPM.
  • Consultoria em projetos Alfresco e Activiti.
  • Desenvolvimento e Customizações do Alfresco.
  • Desenvolvimento e Customizações do Activiti.
  • Consultoria e apoio ao cliente na definição de organização dos dados no Alfresco.
  • Consultoria na instalação e configuração do Ambiente Alfresco ECM e BPM.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na engenharia de como os dados devem ser armazenados.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração e modelos de Conteúdo(metadados).
  • Consultoria na implementação de workflows com uso da metodologia BPMN em BPMs (BPM Software).

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em Alfresco.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em Alfresco Community.
  • Suporte em Alfresco Community com Activiti Community.

Ambientes onde podemos implementar as soluções de ECM e BPM.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS
  • Google Cloud Plataform - GCP
  • Azure

Tecnologias que somos especialistas.

Conheça nossos treinamentos na plataforma Alfresco.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de documentos e conteúdos. Entre em contato conosco.

 

Leia mais...