Camunda BPM

Marcio Junior Vieira

Marcio Junior Vieira

  • 19 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Professor da Pós-Graduação em Big Data e Data Science da UniBrasil.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho).
  • Membro da The Order Of de Bee (membros da comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento Apache AirFlow - Fundamental

O treinamento fundamental em Apache AirFlow prepara profissionais para o mercado para automatizando seu fluxo de trabalho.O Apache Airflow é uma plataforma de gerenciamento de fluxo de trabalho de código aberto. Tudo começou no Airbnb em outubro de 2014 como uma solução para gerenciar os fluxos de trabalho cada vez mais complexos da empresa. Empresas como Alibaba, Airbnb, Tesla, Square e Spotify tem usado o Apache AirFlow.


Objetivo

Ministrar as principais funcionalidades e técnicas do Apache AirFlow para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático.

Conceitual Apache AirFlow.

  • Introdução ao AirFlow.
  • Introdução a ETL.
  • Introdução a Pipeline de dados.
  • Introdução a Ciência de dados.
  • A Apache Software Foundation.
  • Cases de Uso do Apache AirFlow.
  • Empresas usando Apache AirFlow.
  • Pentaho Data Integration X Hop X AirFlow.
  • DAGs

Instalação do Apache AirFlow.

  • Requisitos pata instalação.
  • Instalando o Apache AirFlow.
  • Configurando o Apache Airflow.

Características

  • Conhecendo o CLI.
  • Conexões.
  • Instância Remota AirFlow.
  • Bash/Zsh.
  • Exportando DAGs pata Imagens.
  • Data Profiling.
  • Ad Hoc Query.
  • Scheduler.
  • Executor.
  • DAG Runs.
  • Plugins.
  • Segurança
  • Time zones.

Integrações

  • Azure: Microsoft Azure.
  • AWS: Amazon Web Services.
  • Databricks.
  • GCP: Google Cloud Platform.

Métricas

  • Setup.
  • Counters.
  • Gauges.
  • Timers.

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python.
  • Básico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Funcionalidades

  • Monitorando o Apache Airflow.
  • Customizando o Apache Airflow.
  • Lendo dados de Big Data.
  • Macros.
  • Python API.
  • REST API.
  • Melhores Práticas.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache AirFlow e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos AirFlow cursos AirFlow. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento Apache Druid - Fundamental

O treinamento fundamental em Apache Druid prepara profissionais para o mercado para manipulação de dados em tempo real. Apache Druid é um armazenamento de dados distribuído, de código aberto e orientado a colunas, escrito em Java. Foi projetado para ingerir rapidamente grandes quantidades de dados de eventos e executar consultas OLAP de baixa latência nesses dados. O Druid é comumente usado em aplicativos de inteligência de negócios para analisar grandes volumes de dados históricos e em tempo real. Também é adequado para alimentar painéis analíticos rápidos, interativos e para usuários finais. Empresas como Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal tem usado o Apache Druid.


Conteúdo Programático.

Conceitual Apache Druid.

  • Introdução ao Druid.
  • Ecossistema de Big Data.
  • Introdução a Streaming Data.
  • Introdução a OLAP.
  • Introdução a Hadoop.
  • A Apache Software Foundation.
  • Introdução ao Zookeper.
  • Cases de Uso do Druid.
  • Empresas usando Druid.

Instalação do Apache Druid.

  • Instalando o Druid.
  • Configurando o Druid.
  • Importando um data Source.

Características

  • Alta Performance.
  • Real-time.
  • Analytics.
  • Database.
  • Spec.
  • Schema.

Arquitetura do Apache Druid

  • Arquitetura.
  • Middle Manager.
  • Indexing Nodes.
  • Historical Nodes.
  • Broker Nodes.
  • Cordinator Nodes.

Storage Formats

  • Segments Files.
  • Particionamento.
  • JSON, CSV, TSV.
  • ORC, Parquet, Avro.

Funcionalidade

  • Data Rollup.
  • Enconding.
  • Bitmap Indices.
  • Sketch Columns
  • Limitações.
  • Real Time Analytics.

Índices de Dados

  • Sharding.
  • Real Time Indices.
  • Streaming Ingestion.
  • Kafka Indexing Service.
  • Batch Ingestion.
  • Hadoop Index Task.
  • Index Task.
  • Interação com Apache Hive.

Querys e Druid SQL.

  • JSON Querys.
  • SQL Querys.
  • Pytho Querys.
  • R Querys.
  • Ruby Querys.
  • Javascript Querys.
  • Clojure Querys.
  • PHP Querys.
  • REST API Querys.
  • Multiple Query Types.
  • Timeseries,TopN, GroupBy, Select, Segment Metadata.
  • Parser e Planner Apache Cacique.
  • Pvot Analytics UI.

Integração

  • Druid via JDBC.
  • Druid com Hive.
  • Druid e sistemas de BI.
  • Druid Storage for Hive.

Segurança

  • Configurando Acessos.

Cluster Druid

  • Configurando o Cluster.
  • Cluster Distribuído.

 

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Druid e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Druid, cursos Druid. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento em Apache Solr - Fundamental

O treinamento fundamental em Apache Sorl prepara profissionais para o mercado de indexação textual e documental para pesquisas elásticas e eficientes de fontes de big data ou de sistemas com que pretendem embutir o Solr como motor de busca textual. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes clusterizados para gestão de buscas textuais.


Conteúdo Programático.

Conceitual Solr.

  • Introdução a Pesquisas.
  • A Apache Software Foundation.
  • Lucene/Solr.
  • Introdução ao Zookeper.
  • Solr no ecossistema de Big Data.
  • Text Analytics e Geo Search.
  • Terminologias.
  • Cases de Solr.
  • Empresas usando Solr no Brasil

Instalação do Solr.

  • Instalando um nó de Solr.
  • Iniciando o Solr.

Fundamentos do Solr

  • Arquitetura
  • Arquivos Básicos.
  • Conceitos Básicos.
  • Solr Admin UI.
  • Adicionando conteúdo ao Solr.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

Índices

  • Estrutura dos dados.
  • Formatos de dados (XML,JSON,CSV)
  • Estrutura de índices.
  • Adicionando tipos de campos personalizados.
  • String X Text.
  • Tokenizers.
  • Char filters.
  • Filters.
  • Copy fields.
  • Spacial data.
  • Spacial Filters.

Configurações

  • Configurações do Lucene
  • Configurações do Schema factory .
  • Schema API.
  • Configurações da API.
  • Gerenciando recursos.
  • Codecs.
  • Merge policy.
  • Merge Schedulers.

Cluster Solr e Tuning

  • Solr Master-Slave.
  • Solr Replication.
  • Solr Master-Master
  • Instalando um cluster Master-Slave.
  • Indexing buffer size.
  • Caches
  • Auto commit tunning
  • Warming up.

API e Lucene Search

  • Usando JSON request API
  • Pesquisas usando JSON Query
  • Funções de Agregação
  • Nested Faceting.
  • Codificando com Lucene.
  • Extraindo texto com Apache Tika.
  • Lucene Query Language.
  • Usando cursores.
  • Paginação e ordenação.
  • Querys e Funções Espaciais.

SolrCloud

  • Arquitetura do SolrCloud.
  • Usando JSON request API.
  • Solr Master-slave X SolrCloud.
  • Trabalhando com Zookeeper.
  • Sharding.

Backup

  • Backup Solr master-Slave.
  • Backup Sulor Cloud.

Monitoramento

  • Monitoramento com uso do JMX.
  • Monitoramento com SPM.
  • Métricas de Monitoramento.

Analise de dados

  • Faceting.
  • Casos de uso.
  • Campos Faceting.
  • Prefixo de Campos Faceting.
  • Range Faceting.
  • Query Faceting.
  • Sort Faceting.
  • Hierarquia do Faceting.
  • Intervalo do Faceting.

 

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Solr e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Solr e cursos Solr. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento Python para Devops

O treinamento Python para Devops prepara profissionais para o mercado junto aos conceitos de DevOps. Seu conteúdo programático foi desenvolvido para que profissionais possam desenvolver scripts em Python com foco na administração de tarefas de ambientes computacionais, extração de dados entra databases (SQL e NoSQL), consumo e extração de APIs e automação de infraestrutura em diferentes serviços de nuvens.


Conteúdo Programático.

Introdução a Linguagem Python e a DevOps.

  • O que é Python?
  • O que é DevOps?
  • Apresentando Python.
  • IDE para Python.

Instalação o Python.

  • Instalação e configuração.
  • Versões do Python.
  • Conhecendo o pip.
  • Como instalar pacotes.
  • Instalando o boto3.
  • Instalando IDEs Python.

Programando em Python.

  • Tipos de dados em Python
  • Trabalhando com strings, números e booleanos.
  • Trabalhando com listas, tuplas e dicionários.
  • Estrutura de dados e conversão de tipos.
  • Operadores e condições.
  • Blocos de repetições.
  • Controle de Loop.
  • Estrutura do bloco de exceção.
  • Tipos de exceções.
  • Criar exceções.
  • Manipular arquivos.

Funções e Orientação Objeto.

  • Escopo de variáveis e sintaxe de funções.
  • Parâmetros e argumentos.
  • Funções anônimas.
  •  Método construtor e atributos.
  • Herança e Polimorfismo.

Manipulação de Banco de Dados.

  • SQL X NoSQL.
  • Consultando Dados PostgreSQL com Python.
  • Comando Básicos SQL em PostgreSQL.
  • Criando um database.
  • Inserindo registros.
  • Consultando Dados MongoDB com Python.
  • Comandos Básicos MongoDB.
  •  Criando collection.
  • Inserindo documento e subdocumentos.
  • Trabalhando e Gravando Logs no MongoDB.

Consumindo e Construindo APIs .

  • Modulo Requests.
  • POST, GET, PUT, DELETE.
  • Instalando Flask para construir uma API.
  • Conhecendo Estrutura Básica.
  • Criando Rotas e Views.
  • Conhecento e Trabalhando com JSON.
  • REST API.

PyOPS.

  • Python e Docker.
  • Importando Módulos.
  • Criando Regras de Negócios.
  • Comunicação entre Módulos MongoDB e Docker
  • Realizando Deploy de Uma Aplicação.

Python para Administração da AWS.

  • Básico de AWS.
  • Criando o módulo AWS.
  • Listar instâncias EC2.
  • Criando nova instância.
  • Gerenciando Instância.
  • Deploy de aplicação

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.

Requisitos:

  • Os alunos devem ter ou criar uma conta na AWS com antecedência.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Python e cursos Python. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Treinamento em Kubernetes - Fundamental

O treinamento fundamental em Kubernetes prepara profissionais para o mercado de orquestração de containers. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes nuvem públicas ou privadas.


Conteúdo Programático.

Conceitual Kubernetes.

  • Introdução a Containers.
  • Orquestração de containers.
  • Fundamentos do Kubernetes,
  • Componentes do Cluster Kubernetes.
  • Objetos do Cluster Kubernetes.
  • Ecossistema de Containers.
  • Containers X Virtual Machines.
  • Cases do uso de Kubernetes.
  • Empresas usando Kubernetes no Mundo.
  • Empresas usando Kubernetes no Brasil
  • Comunidade Kubernetes.

Instalação do Kubernetes.

  • Instalação do Kubernetes.
  • Configurando o banco de dados.

Minikube

  • Configurando um cluster Kubernetes de nó único com o Minikube,
  • Preparando ambiente com minikube

Docker

  • Adicionando uma aplicação em containers
  • docker-compose.
  • Criando seu primeiro pod.
  • Comunicação entre containers

Arquitetura

  • Arquitetura do Kubernetes - Visão geral
  • API e Acessos.
  • Objetos OPI.
  • Gerenciando Estado com Implantações.
  • Serviços.
  • Volumes e Dados.
  • Kubernetes Building Blocks.
  • Replicando pods.
  • Kubernetes no Google Could, Azure  e Amazon.

Segurança.

  • Autenticação, Controle de autorização e admissão.

Assuntos complementares.

  • Ingress.
  • Scheduling.
  • Log e Solução de Problema.
  • Definições de Recursos Customizados.
  • Helm.
  • Alta Disponibilidade.
  • Utilizando o objeto StatefulSet.

Cluster kubernetes

  • Montando um cluster.
  • Configurando acesso ao cluster.
  • Deploy de aplicações.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Kubernetes e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos kubernetes e cursos kubernetes. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Consultoria em Camunda BPM

O Software Camunda Community.

O Camunda BPM é um software internacional para modelagem e execução de processos de negocio, com um de seus diferenciais os suportes as metodologias e especificações BPMN 2.0, CMMN 1.1 e DMN 1.1 O Camunda BPM é um  workflow com código aberto e plataforma de automação de decisão. O Camunda BPM é fornecido com ferramentas para criar modelos de fluxo de trabalho e decisão, operar modelos implantados na produção e permitir que os usuários executem tarefas de fluxo de trabalho a eles atribuídas.

 

BPM - Gerenciamento de processos de Negócio.

A plataforma Alfresco Enterprise Management Content (ECM) é uma plataforma de ECM aberta e  poderosa que é fácil de estender, personalizar e integrar com suas aplicações e processos existentes. A plataforma fornece acesso móvel fácil de conteúdo, proporciona ao usuário uma experiência de colaboração simples, mas rica e ajuda os clientes a maximizar o valor de seu conteúdo. É a plataforma ECM preferida para milhares de empresas no mundo.

Funcionalidades do Alfresco.

  • Gestão de Documentos Eletrônicos
  • Pesquisas com Alta Performance (metadados e conteúdo).
  • Gerenciamento de conteúdo Web.
  • Suporte Multi-plataforma (Windows, Linux e Mac OS).
  • Suporte a Cloud e Virtualização.
  • Interoperabilidade e Integração (SOAP, CMIS,REST, IMAP).
  • 100% Web e Mobile.
  • Interface simples e colaborativa (Web 2.0).
  • Previews de Documentos.
  • Wikis, Blogs, Fóruns, Links.
  • Gestão de acesso por grupos ou usuários.
  • Gestão de Metadados, classificação.
  • Controle de Versão e Rastreabilidade
  • Workflow e BPM Integrado com o Activiti BPM.

Ambiente Livre e Alfresco Community.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções  de Enterprise Content Management que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios,  pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em BPM e ECM Open Source com a Plataforma Alfresco, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de ECM e BMP Open Source Alfresco, através de capacitações, eventos, cursos de alfresco, workshops e treinamentos de Alfresco. Com profissionais com experiência de mais de 8 anos na plataforma Alfresco, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em Alfresco e se consolidamos como a principal referência em formação de tecnologias open source Alfresco para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso da plataforma Alfresco.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de documentos em sua empresa com o Alfresco.

Consultoria em Alfresco.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do Alfresco Plataform
  • Consultoria na implantação com Alfresco Integrado ao Activiti BPM.
  • Consultoria em projetos Alfresco e Activiti.
  • Desenvolvimento e Customizações do Alfresco.
  • Desenvolvimento e Customizações do Activiti.
  • Consultoria e apoio ao cliente na definição de organização dos dados no Alfresco.
  • Consultoria na instalação e configuração do Ambiente Alfresco ECM e BPM.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na engenharia de como os dados devem ser armazenados.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração e modelos de Conteúdo(metadados).
  • Consultoria na implementação de workflows com uso da metodologia BPMN em BPMs (BPM Software).

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em Alfresco.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em Alfresco Community.
  • Suporte em Alfresco Community com Activiti Community.

Ambientes onde podemos implementar as soluções de ECM e BPM.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS
  • Google Cloud Plataform - GCP
  • Azure

Tecnologias que somos especialistas.

Conheça nossos treinamentos na plataforma Alfresco.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de documentos e conteúdos. Entre em contato conosco.

 

Leia mais...

Treinamento em Scylla - Fundamental

O treinamento fundamental em Scylla Database NoSQL prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, interação programática e atividades práticas.


Conteúdo Programático.

Conceitual Scylla.

  • O que é Big Data?
  • Visão geral sobre Scylla.
  • Características Gerais do Scylla.
  • Ecossistema de Big Data e Scylla.
  • Scylla X Outros NoSQL.
  • Apache Cassandra X DataStax X Scylla.
  • Cases do uso de Scylla.

Características do Scylla.

  • Escalabilidade Linear.
  • Alta disponibilidade.
  • Alto desempenho.
  • NoSQL X SQL.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.
  • Versões do Scylla.

Instalação do Scylla

  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um cluster Scylla.
  • Iniciando o cluster com seus nós.
  • Introdução ao nodetools.

SDM e CQL (Scylla Data Model e Cassandra Query Language )

  • A linguagem CQL.
  • Flexibilidade do CQL.
  • Tables.
  • Column Family.
  • Row Key.
  • Columns, Columns name e Columns Values.
  • KeySpace.
  • Timestamps.
  • Partition Key Simples e Composta e Indexação.
  • Insert.
  • Select.
  • Consultas indexadas.
  • Batch Statements.

Assuntos Complementares.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Suporte a MapReduce no Hadoop.
  • Apache Spark e Scylla.
  • Backups.
  • Certificações em Scylla.

 

Carga Horária:

  • 24 Horas de duração.

 

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de programação.
  • Conhecimento Básico em modelo de dados, banco de dados e SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para OnLine ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Scylla e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

 

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Scylla e cursos Scylla. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

Powered by BreezingForms

Instrutor

Leia mais...

Treinamento Apache Spark com Python para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark com Python para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Python e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python
  • Basico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Programando em Python e Jython

  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If, While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Programação Funcional em Python

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Python e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Spark com SQL e Hadoop Hive

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

 

 

Instrutor

Leia mais...

Treinamento Administração em Apache Cassandra

O treinamento Administração do Apache Cassandra prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implantar e administrar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, configuração, tunning todas realizadas com atividades práticas e exemplos reais de utilização.


Conteúdo Programático.

Conceitual Apache Cassandra.

  • Visão geral sobre Cassandra.
  • Características Gerais do Cassandra.
  • Ecossistema de Big Data e Cassandra.
  • Cassandra X Outros NoSQL.
  • Distribuições Cassandra.
  • DataStax X Apache Cassandra X ScyllaDB.
  • Cases do uso de Cassandra.
  • Escalabilidade Linear.
  • Alta disponibilidade e Alto desempenho.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.

Planejamento de Hardware.

  • Seleção de hardware.
  • Virtual machine X Hardware Físico.
  • Memória.
  • Processadores.
  • Discos e Storage.
  • Storage X Disco Físico.
  • Limites e Recomendações.

Instalação e Configuração do Apache Cassandra

  • Distribuições Cassandra.
  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um Cluster Cassandra.
  • Iniciando o cluster com seus nós.
  • Diretórios de dados.
  • Configurando os Nós e Clusters do Cassandra Utilizando o CCM.

Administração do Cluster Cassandra

  • Executando e Parando a Instância Cassandra
  • Administrado o cluster com o NodeTool.
  • Analisando saúde do Cluster.
  • Analisando performance com NodeTool
  • Comunicação dos Nodes Cassandra.
  • Gravando e lendo dados no mecanismo de armazenamento.
  • Escolhendo e implementando estratégias de compactação.
  • Compactação Cassandra.
  • Size Tiered Compaction.
  • Time Window Compaction.
  • Práticas recomendadas do Cassandra (compaction, garbage collection)
  • Criando uma instância do Cassandra de teste com pouco espaço na memória.
  • Reparo Anti-entropy node
  • Reparo sequencial vs paralelo.
  • Nodesync.

Manutenção do Cluster Cassandra

  • Adicionando e removendo novos nodes.
  • Substituindo um node.

Solução de problemas (Troubleshooting)

  • Ferramentas e dicas para solução de problemas (Troubleshooting).
  • Diretórios de Logs.
  • Analise de Logs.
  • JVM Garbage e Collection Logging.

Administração de tabelas clusterizadas.

  • Quorum e consistency levels.
  • Sstables, memtables, commit log.
  • Replicação.
  • Sstablesplit

Backups e Restore.

  • Arquitetura para backups.
  • Planejamento de backups.
  • Ferramentas de apoio para Backup.
  • Restore.
  • Snapshots.
  • Sstabledump.
  • Sstableloader.

Tunning.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Consistency Tuning.
  • Benchmarks.
  • Configurações de JVM.
  • Kernel Tunning.

Processamento distribuído.

Assuntos Complementares

  • Certificações em Apache Cassandra.

 

Carga Horária:

  • 24 Horas.
  • 100% Presencial

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux,
  • Conhecimento básico de programação
  • Conhecimento Básico em modelo de dados, Banco de dados e SQL e NoSQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Cassandra e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Cassandra e cursos Cassandra. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Fotos dos treinamentos Apache Cassandra

Instrutor

Leia mais...

Treinamento Apache Zeppelin

Sobre o Treinamento / Curso

O treinamento fundamental em Apache Zeppelin é voltado para Data Scientists (Cientistas de dados) que pretendem conhecer o potencial que uma ferramenta de Notebook nas atividades de um cientista de dados, proporcionando conhecimentos para uso no dia dia de trabalho com dados em ambientes de Big Data, Machine Learning, Inteligência Artificial e Data Science na exploração e analise dos dados.

Modalidades de Treinamento e Valores

  • EAD - Cadastre-se na Plataforma de EAD, pague com cartão de crédito via Paypal e tenha acesso instantâneo a todos vídeo aulas, slides, exercícios e softwares (pode assistir em seu computador ou celular). De R$ 270,00  Promocionalmente em lançamento por R$ 90,00.
    Gostaria de pagar de outra forma (Faturado, Boleto, Nota de Empenho, etc)? Solicite contato comercial.
  • Remoto ao Vivo - Aulas por salas virtuais ao vivo com nossos instrutores(Hangout, Skype, etc). Solicite proposta comercial.
  • Presencial - Nosso instrutor vai até você e ministra junto a sua equipe. Solicite proposta comercial.

Conteúdo Programático

Introdução.

  • Introdução ao Apache Zeppelin.
  • O que é um interpreter.
  • Integração com Apache Spark.
  • Visualização de dados.
  • Pivot.
  • Formulários dinâmicos.
  • Notes e parágrafos.

Interpreters.

  • Markdown Interpreter.
  • JDBC Interpreter.
  • Hive Interpreter.
  • Shell Interpreter.
  • Spark Interpreter.

Instalando o Ambiente.

  • Adquirindo VM da Hortonworks - HDP.
  • Instalando a VM da Hortonworks - HDP.
  • Instalando uma VM Hortonworks Sandbox na Cloud Microsoft Azure.

Criando Notes com Apache Hive.

  • Criando Notes com o interpreter JDBC/Hive.
  • Utilizando SQL Like do Hive.
  • Criando gráficos.
  • Configurando gráficos.
  • Importando e exportando Notes.

Criando Notes com Shell Script.

  • Criando Notes com o interpreter Shell.
  • Manipulando e movendo arquivos com shell.
  • Manipulando o HDFS com interpreter shell.

Criando Notes com Apache Spark e Angular.

  • Criando Notes com o interpreter Spark.
  • Utilizando o interpreter Spark 2.
  • Usando o interpreter Angular para apoio de documentação.
  • Manipulando Dataframes com métodos Spark.
  • Visualizando dados com o interpreter Spark SQL.

Configurando Interpreters.

  • Configurando um novo Interpreter JDBC (PostgreSQL).
  • Utilizando o novo Interpreter para acessar o PostgreSQL.

Autenticação e Segurança.

  • Controlando acessos com Apache Shiro.

Carga Horária:

  • 3 Horas.

Pré-Requisitos:

  • Noções de Big Data ou Data Science ou Analytics.
  • Conhecimento básico em programação.
  • Conhecimento básico de manipulação de dados (SQL, DML, DDL)
  • Conhecimento básicos de redes. 

Requisitos:

Para aulas EAD ou transmissão ao Vivo.

  • Todos os participantes devem ter um computador para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.

Para aulas presenciais

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 16GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T ou Superior.
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Obs. Pode ser utilizado a VM Hortonworks Data Platform (HDP) Sandbox da Microsoft Azure (https://azuremarketplace.microsoft.com/en-us/marketplace/apps/hortonworks.hortonworks-sandbox) que tem todos os requisitos, porém o tempo de uso e calculado pela Azure e cobrado de seus créditos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Zeppelin e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Vídeo aulas desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Zeppelin e cursos Apache Zeppelin. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Leia mais...

Log in