Apache Drill

Marcio Junior Vieira

Marcio Junior Vieira

  • 22 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento Apache Druid - Fundamental

O treinamento fundamental em Apache Druid prepara profissionais para o mercado para manipulação de dados em tempo real. Apache Druid é um armazenamento de dados distribuído, de código aberto e orientado a colunas, escrito em Java. Foi projetado para ingerir rapidamente grandes quantidades de dados de eventos e executar consultas OLAP de baixa latência nesses dados. O Druid é comumente usado em aplicativos de inteligência de negócios para analisar grandes volumes de dados históricos e em tempo real. Também é adequado para alimentar painéis analíticos rápidos, interativos e para usuários finais. Empresas como Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal tem usado o Apache Druid.


Conteúdo Programático.

Conceitual Apache Druid.

  • Introdução ao Druid.
  • Ecossistema de Big Data.
  • Introdução a Streaming Data.
  • Introdução a OLAP.
  • Introdução a Hadoop.
  • Apache Software Foundation.
  • Introdução ao Zookeper.
  • Cases de Uso do Druid.
  • Empresas usando Druid.

Instalação do Apache Druid.

  • Instalando o Druid.
  • Configurando o Druid.
  • Importando um data Source.

Características

  • Alta Performance.
  • Real-time.
  • Analytics.
  • Database.
  • Spec.
  • Schema.

Arquitetura do Apache Druid

  • Arquitetura.
  • Middle Manager.
  • Indexing Nodes.
  • Historical Nodes.
  • Broker Nodes.
  • Cordinator Nodes.

Storage Formats

  • Segments Files.
  • Particionamento.
  • JSON, CSV, TSV.
  • ORC, Parquet, Avro.

Funcionalidade

  • Data Rollup.
  • Enconding.
  • Bitmap Indices.
  • Sketch Columns
  • Limitações.
  • Real Time Analytics.

Índices de Dados

  • Sharding.
  • Real Time Indices.
  • Streaming Ingestion.
  • Kafka Indexing Service.
  • Batch Ingestion.
  • Hadoop Index Task.
  • Index Task.
  • Interação com Apache Hive.

Querys e Druid SQL.

  • JSON Querys.
  • SQL Querys.
  • Pytho Querys.
  • R Querys.
  • Ruby Querys.
  • Javascript Querys.
  • Clojure Querys.
  • PHP Querys.
  • REST API Querys.
  • Multiple Query Types.
  • Timeseries,TopN, GroupBy, Select, Segment Metadata.
  • Parser e Planner Apache Cacique.
  • Pvot Analytics UI.

Integração

  • Druid via JDBC.
  • Druid com Hive.
  • Druid e sistemas de BI.
  • Druid Storage for Hive.

Segurança

  • Configurando Acessos.

Cluster Druid

  • Configurando o Cluster.
  • Cluster Distribuído.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Druid e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Druid, cursos Druid. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

Powered by BreezingForms

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento em Apache Solr

Sobre o Treinamento

O treinamento fundamental em Apache Sorl prepara profissionais para o mercado de indexação textual e documental para pesquisas elásticas e eficientes de fontes de big data ou de sistemas com que pretendem embutir o Solr como motor de busca textual. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes clusterizados para gestão de buscas textuais.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Dificuldade: Média.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Solr 9.4.1 e foi modificado pela última vez em 14 de Fevereiro de 2024.

Conteúdo Programático.

Conceitual Solr.

  • Introdução a Pesquisas.
  • A Apache Software Foundation.
  • Lucene/Solr.
  • Solr no ecossistema de Big Data.
  • Text Analytics e Geo Search.
  • Terminologias.
  • Cases de Solr.
  • Empresas usando Solr no Brasil.

Instalação do Solr.

  • Instalando um nó de Solr.
  • Iniciando o Solr.

Fundamentos do Solr

  • Arquitetura do Apache Solr.
  • Arquivos básicos.
  • Conceitos básicos.
  • Solr Admin UI.
  • Adicionando conteúdo ao Solr.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

Índices

  • Estrutura dos dados.
  • Formatos de dados (XML, JSON, CSV).
  • Estrutura de índices.
  • Adicionando tipos de campos personalizados.
  • String X Text.
  • Tokenizers.
  • Char filters.
  • Filters.
  • Copy fields.
  • Spacial data.
  • Spacial Filters.

Configurações

  • Configurações do Lucene.
  • Configurações do Schema factory .
  • Schema API.
  • Configurações da API.
  • Gerenciando recursos.
  • Codecs.
  • Merge policy.
  • Merge Schedulers.

Cluster Solr e Tuning.

  • Solr Master-Slave.
  • Solr Replication.
  • Solr Master-Master
  • Instalando um cluster Master-Slave.
  • Indexing buffer size.
  • Caches.
  • Auto commit tunning.
  • Warming up.

API e Lucene Search

  • Usando JSON request API.
  • Pesquisas usando JSON Query.
  • Funções de Agregação.
  • Nested Faceting.
  • Codificando com Lucene.
  • Extraindo texto com Apache Tika.
  • Lucene Query Language.
  • Usando cursores.
  • Paginação e ordenação.
  • Querys e funções espaciais.
  • Solr in Java.

Solr e Java.

  • Overview.
  • Apache Maven.
  • Setup do Ambiente de Desenvolvimento.
  • Conectando ao Solr com Java.
  • Indexando documentos com java.
  • Indexando documentos com Java Beans.
  • Pesquisando nos indíces.
  • Deletando documentos com Java.

SolrCloud.

  • Introdução ao Zookeper.
  • Arquitetura do SolrCloud.
  • Usando JSON request API.
  • Solr Master-slave X SolrCloud.
  • Solr ZooKeeper CLI (SolrZKClient).
  • Sharding.

Backup do Solr.

  • Backup Solr master-Slave.
  • Backup Solr Cloud.

Monitoramento do Solr.

  • Monitoramento com uso do JMX.
  • Monitoramento com SPM.
  • Métricas de Monitoramento.
  • Prometheus Exporter.
  • Solr-exporter.
  • GrafanaSolr Dashboard.

Analise de dados.

  • Faceting.
  • Casos de uso.
  • Campos Faceting.
  • Prefixo de Campos Faceting.
  • Range Faceting.
  • Query Faceting.
  • Sort Faceting.
  • Hierarquia do Faceting.
  • Intervalo do Faceting.

 

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Solr e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Solr e cursos Solr. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Python para Devops

O treinamento Python para Devops prepara profissionais para o mercado junto aos conceitos de DevOps. Seu conteúdo programático foi desenvolvido para que profissionais possam desenvolver scripts em Python com foco na administração de tarefas de ambientes computacionais, extração de dados entra databases (SQL e NoSQL), consumo e extração de APIs e automação de infraestrutura em diferentes serviços de nuvens.


Conteúdo Programático.

Introdução a Linguagem Python e a DevOps.

  • O que é Python?
  • O que é DevOps?
  • Apresentando Python.
  • IDE para Python.

Instalação o Python.

  • Instalação e configuração.
  • Versões do Python.
  • Conhecendo o pip.
  • Como instalar pacotes.
  • Instalando o boto3.
  • Instalando IDEs Python.

Programando em Python.

  • Tipos de dados em Python
  • Trabalhando com strings, números e booleanos.
  • Trabalhando com listas, tuplas e dicionários.
  • Estrutura de dados e conversão de tipos.
  • Operadores e condições.
  • Blocos de repetições.
  • Controle de Loop.
  • Estrutura do bloco de exceção.
  • Tipos de exceções.
  • Criar exceções.
  • Manipular arquivos.

Funções e Orientação Objeto.

  • Escopo de variáveis e sintaxe de funções.
  • Parâmetros e argumentos.
  • Funções anônimas.
  •  Método construtor e atributos.
  • Herança e Polimorfismo.

Manipulação de Banco de Dados.

  • SQL X NoSQL.
  • Consultando Dados PostgreSQL com Python.
  • Comando Básicos SQL em PostgreSQL.
  • Criando um database.
  • Inserindo registros.
  • Consultando Dados MongoDB com Python.
  • Comandos Básicos MongoDB.
  •  Criando collection.
  • Inserindo documento e subdocumentos.
  • Trabalhando e Gravando Logs no MongoDB.

Consumindo e Construindo APIs .

  • Modulo Requests.
  • POST, GET, PUT, DELETE.
  • Instalando Flask para construir uma API.
  • Conhecendo Estrutura Básica.
  • Criando Rotas e Views.
  • Conhecento e Trabalhando com JSON.
  • REST API.

PyOPS.

  • Python e Docker.
  • Importando módulos.
  • Criando regras de negócios.
  • Comunicação entre módulos MongoDB e Docker
  • Realizando deploy de uma aplicação.

Python para Administração da AWS.

  • Básico de AWS.
  • Criando o módulo AWS.
  • Listar instâncias EC2.
  • Criando nova instância.
  • Gerenciando Instância.
  • Deploy de aplicação

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.

Requisitos:

  • Os alunos devem ter ou criar uma conta na AWS com antecedência.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Python e cursos Python. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Kubernetes

Sobre o Treinamento.

O treinamento fundamental Kubernetes prepara profissionais para o mercado de orquestração de contêineres. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções complexas em ambientes native cloud em nuvens públicas ou nuvens privadas com todas as vantagens do multi-cloud e com mínimo, ou nenhum, lock-in em suas aplicações.
Todo o treinamento e ministrado sobre a versões Community do Docker e do Kubernetes com Materiais em Português do Brasil. Ambiente de educação e metodologia de ensino personalizada.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Realizar implantação de Pods.
  • Realizar implantação de serviços.
  • Construir manifests em YAML.
  • Gerenciar volumes.
  • Gerenciar Contêineres.
    • Construir imagens personalizadas.
    • Executar Contêineres.
  • Instalar um cluster Kubernetes.
    • Gerenciar os principais recursos de um cluster.
    • Corrigir principais problemas.
    • Monitorar aplicações.
    • Definir autenticações e segurança de acesso.
  • Escalar aplicações.
  • Orquestrar Contêineres e Pods.
  • Estar pronto para usar qualquer Kubernetes em clouds certificada pela CNCF.
  • Aplicar níveis de segurança no cluster.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Docker CE 20.10.6, Docker-compose 1.29.1, Kubernetes 1.25 e foi modificado pela última vez em 4 de Dezembro de 2022.

Conteúdo Programático.

Conceitual Kubernetes.

  • Introdução a contêineres.
  • Contêineres X Virtual Machines.
  • Imagens em contêineres.
  • Volumes em contêineres.
  • Casos de usos de contêineres.
  • Orquestração de contêineres.
  • Ferramentas de orquestração de contêineres.
  • Ecossistema de contêineres.
  • Casos de uso de contêineres.
  • O Projeto Kubernetes.
  • Histórico do Kubernetes.
  • Cloud Native Computing Foundation (CNCF).
  • Motivações para criação do Kubernetes.
  • Fundamentos do Kubernetes.
  • Componentes do Cluster Kubernetes.
  • Objetos do Cluster Kubernetes.
  • Cases do uso de Kubernetes.
  • Setores de empresas usando Kubernetes.
  • Empresas usando Kubernetes no Mundo.
  • Empresas usando Kubernetes no Brasil
  • Comunidade Kubernetes.

Instalação do Ambiente Kubernetes.

  • Instalação do Docker.
  • Instalação do Docker-compose.
  • Instalação do Kubernetes (Minikube).

Minikube.

  • Fundamentos do Minikube
  • Pré-requisitos para instalação do Minikube.
  • Arquitetura Minikube.
  • Configurando um cluster Kubernetes de nó único com o Minikube,
  • Preparando ambiente com Minikube.

Docker.

  • Fundamentos do Docker.
  • Adicionando uma aplicação em contêineres.
  • Criando seu primeiro pod.
  • Comunicação entre contêineres.

Docker-compose

  • Fundamentos do Docker-compose
  • Arquivos YAML.
  • Executando um deploy de aplicação com Docker-compose.

Arquitetura do Kubernetes.

  • Arquitetura do Kubernetes.
  • Pods.
  • API e Acessos.
  • Objetos OPI.
  • Gerenciando Estado com Implantações.
  • Serviços.
  • Volumes e Dados.
  • Kubernetes Building Blocks.
  • Replicando pods.
  • Kubernetes no Google Could, Azure  e Amazon.

Kubernetes Command Line Interface (CLI) client

  • kubectl.
  • kubectl na arquitetura Kubernetes.
  • Sintaxe kubectl.
  • Comandos comuns do kubectl.
  • kubectl na Google Cloud.
  • kubectl na Microsoft Azure.

Namespaces e Contexts

  • Kubernetes Namespaces.
  • Quando usar vários namespaces?
  • Namespaces Iniciais.
  • Namespaces Manifests.
  • Namespaces - Limits Range.
  • Kubernetes Contexts.
  • Kubeconfig.

Kubernetes Services

  • ClusterIP.
  • NodePort.
  • LoadBalancer.

Segurança e autenticação.

  • Alertas e Recomendações.
  • Segurança no Kubernetes.
  • 4C - Cloud Native Security.
  • Segurança da infraestrutura.
  • Segurança do cluster.
  • Autenticação, autorização e controle de admissão.
  • Módulos de autenticação.
  • ClusterRole.
  • Role-based access control - RBAC

Assuntos complementares.

  • Ingress.
  • Scheduling.
  • Log e Solução de Problema.
  • Definições de Recursos Customizados.
  • Helm.
  • Alta Disponibilidade.
  • Utilizando o objeto StatefulSet.

Cluster kubernetes

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores GNU/Linux.
  • Conhecimento básico de redes (Proxy, DNS, etc).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 30GB
  • Processador: 4 Cores.
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Kubernetes e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, pasta e bloco de anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos Brasil, América Latina, Europa e África com Treinamentos Kubernetes e Cursos Kubernetes. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Consultoria em Camunda BPM

O Software Camunda Community.

Camunda BPM é um software internacional para modelagem e execução de processos de negocio, com um de seus diferenciais os suportes as metodologias e especificações BPMN 2.0, CMMN 1.1 e DMN 1.1. O Camunda BPM é um  workflow com código aberto e plataforma de automação de decisão. O Camunda BPM é fornecido com ferramentas para criar modelos de fluxo de trabalho e decisão, operar modelos implantados na produção e permitir que os usuários executem tarefas de fluxo de trabalho a eles atribuídas.

BPM - Gerenciamento de processos de Negócio.

A plataforma Camunda é uma plataforma de BPM aberta e  poderosa que é fácil de estender, personalizar e integrar com suas aplicações e processos existentes.

Funcionalidades do Camunda.

  • Gerenciamento de Processos.
  • Suporte a metodologias internacionais de mapeamento de processos como BPMN, CMMN e DMN.
  • Auditoria completa de execução e histórico do fluxo executado.
  • Integração com Identity Managements (Active Directory, Open LDAP, etc).
  • Integração com streams de mensagens (Kafka, RabbitMQ, etc)
  • Suporte a Microsserviços.
  • Suporte Multi-plataforma (Windows, Linux e Mac OS).
  • Suporte a Cloud e Virtualização.
  • Interoperabilidade e Integração (SOAP, CMIS,REST, IMAP).
  • 100% Web e Mobile.
  • Interface simples e colaborativa (Web 2.0).
  • Gestão de acesso por grupos ou usuários.
  • Integração com ECM de mercado via CMIS (Alfresco, Documentum, OpenText, SharePoint, etc).
  • Interface com tradução para Português do Brasil.

Ambiente Livre e Camunda Community.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções  de Business Process Management que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em BPM e ECM Open Source com a Plataforma Alfresco e Camunda, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de ECM e BMP Open Source Camunda, através de capacitações, eventos, cursos de Camunda, workshops e treinamentos de Camunda. Com profissionais com experiência de mais de 8 anos na plataforma Alfresco, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em Camunda e se consolidamos como a principal referência em formação de tecnologias open source Alfresco para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso da plataforma Camunda.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de processos em sua empresa com o Camunda.

Consultoria em Camunda.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do Camunda BPM.
  • Consultoria na implantação de Zeebe BPM.
  • Consultoria para utilização do Camunda como Motor de BPM.
  • Consultoria para utilização do Zeebe como Orquestrador de microsservicos.
  • Desenvolvimento e Customizações do Camunda.
  • Consultoria e apoio ao cliente na definição de processos no Camunda.
  • Consultoria na instalação e configuração do Ambiente Camunda.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração.
  • Consultoria na implementação de workflows com uso da metodologia BPMN em BPMs.
  • Consultoria nos SDKs de Desenvolvimento Java, C#, PHP, etc.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Projetos de Migração para o Camunda.

Em nossas projetos com Camunda podemos migrar de outros BPMs para Camunda entre eles:

Suporte em Camunda.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

Ambientes onde podemos implementar as soluções BPM.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Azure.

Tecnologias que somos especialistas.

Conheça nossos treinamentos e cursos na plataforma Camunda e treinamento e cursos em Zeebe.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de documentos e conteúdos. Entre em contato conosco.

Leia mais...

Treinamento em Scylla - Fundamental

O treinamento fundamental em Scylla Database NoSQL prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, interação programática e atividades práticas.


Conteúdo Programático.

Conceitual Scylla.

  • O que é Big Data?
  • Visão geral sobre Scylla.
  • Características Gerais do Scylla.
  • Ecossistema de Big Data e Scylla.
  • Scylla X Outros NoSQL.
  • Apache Cassandra X DataStax X Scylla.
  • Cases do uso de Scylla.

Características do Scylla.

  • Escalabilidade Linear.
  • Alta disponibilidade.
  • Alto desempenho.
  • NoSQL X SQL.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.
  • Versões do Scylla.

Instalação do Scylla

  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um cluster Scylla.
  • Iniciando o cluster com seus nós.
  • Introdução ao nodetools.

SDM e CQL (Scylla Data Model e Cassandra Query Language )

  • A linguagem CQL.
  • Flexibilidade do CQL.
  • Tables.
  • Column Family.
  • Row Key.
  • Columns, Columns name e Columns Values.
  • KeySpace.
  • Timestamps.
  • Partition Key Simples e Composta e Indexação.
  • Insert.
  • Select.
  • Consultas indexadas.
  • Batch Statements.

Assuntos Complementares.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Suporte a MapReduce no Hadoop.
  • Apache Spark e Scylla.
  • Backups.
  • Certificações em Scylla.

 

Carga Horária:

  • 24 Horas de duração.

 

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de programação.
  • Conhecimento Básico em modelo de dados, banco de dados e SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para OnLine ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Scylla e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

 

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Scylla e cursos Scylla. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Spark com Python para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark com Python para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Python e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python
  • Basico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Programando em Python e Jython

  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If, While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Programação Funcional em Python

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Python e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Spark com SQL e Hadoop Hive

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Administração em Apache Cassandra

O treinamento Administração do Apache Cassandra prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implantar e administrar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, configuração, tunning todas realizadas com atividades práticas e exemplos reais de utilização.


Conteúdo Programático.

Conceitual Apache Cassandra.

  • Visão geral sobre Cassandra.
  • Características Gerais do Cassandra.
  • Ecossistema de Big Data e Cassandra.
  • Cassandra X Outros NoSQL.
  • Distribuições Cassandra.
  • DataStax X Apache Cassandra X ScyllaDB.
  • Cases do uso de Cassandra.
  • Escalabilidade Linear.
  • Alta disponibilidade e Alto desempenho.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.

Planejamento de Hardware.

  • Seleção de hardware.
  • Virtual machine X Hardware Físico.
  • Memória.
  • Processadores.
  • Discos e Storage.
  • Storage X Disco Físico.
  • Limites e Recomendações.

Instalação e Configuração do Apache Cassandra

  • Distribuições Cassandra.
  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um Cluster Cassandra.
  • Iniciando o cluster com seus nós.
  • Diretórios de dados.
  • Configurando os Nós e Clusters do Cassandra Utilizando o CCM.

Administração do Cluster Cassandra

  • Executando e Parando a Instância Cassandra
  • Administrado o cluster com o NodeTool.
  • Analisando saúde do Cluster.
  • Analisando performance com NodeTool
  • Comunicação dos Nodes Cassandra.
  • Gravando e lendo dados no mecanismo de armazenamento.
  • Escolhendo e implementando estratégias de compactação.
  • Compactação Cassandra.
  • Size Tiered Compaction.
  • Time Window Compaction.
  • Práticas recomendadas do Cassandra (compaction, garbage collection)
  • Criando uma instância do Cassandra de teste com pouco espaço na memória.
  • Reparo Anti-entropy node
  • Reparo sequencial vs paralelo.
  • Nodesync.

Manutenção do Cluster Cassandra

  • Adicionando e removendo novos nodes.
  • Substituindo um node.

Solução de problemas (Troubleshooting)

  • Ferramentas e dicas para solução de problemas (Troubleshooting).
  • Diretórios de Logs.
  • Analise de Logs.
  • JVM Garbage e Collection Logging.

Administração de tabelas clusterizadas.

  • Quorum e consistency levels.
  • Sstables, memtables, commit log.
  • Replicação.
  • Sstablesplit

Backups e Restore.

  • Arquitetura para backups.
  • Planejamento de backups.
  • Ferramentas de apoio para Backup.
  • Restore.
  • Snapshots.
  • Sstabledump.
  • Sstableloader.

Tunning.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Consistency Tuning.
  • Benchmarks.
  • Configurações de JVM.
  • Kernel Tunning.

Processamento distribuído.

Assuntos Complementares

  • Certificações em Apache Cassandra.

 

Carga Horária:

  • 24 Horas.
  • 100% Presencial

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux,
  • Conhecimento básico de programação
  • Conhecimento Básico em modelo de dados, Banco de dados e SQL e NoSQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Cassandra e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Cassandra e cursos Cassandra. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

 

Fotos dos treinamentos Apache Cassandra

Instrutor

Leia mais...

Treinamento Apache Zeppelin

Sobre o Treinamento / Curso

O treinamento fundamental em Apache Zeppelin é voltado para Data Scientists (Cientistas de dados) que pretendem conhecer o potencial que uma ferramenta de Notebook nas atividades de um cientista de dados, proporcionando conhecimentos para uso no dia dia de trabalho com dados em ambientes de Big Data, Machine Learning, Inteligência Artificial e Data Science na exploração e analise dos dados.

Nosso Expertise com o Apache Zeppelin.

Profissionais com 4 anos de experiência com Zeppelin.

5 Alunos formados em treinamentos Zeppelin.

Modalidades de Treinamento e Valores

  • EAD - Cadastre-se na Plataforma de EAD, pague com cartão de crédito via Paypal e tenha acesso instantâneo a todos vídeo aulas, slides, exercícios e softwares (pode assistir em seu computador ou celular). De R$ 270,00  Promocionalmente em lançamento por R$ 90,00.
    Gostaria de pagar de outra forma (Faturado, Boleto, Nota de Empenho, etc)? Solicite contato comercial.
  • Remoto ao Vivo - Aulas por salas virtuais ao vivo com nossos instrutores(Hangout, Skype, etc). Solicite proposta comercial.
  • Presencial - Nosso instrutor vai até você e ministra junto a sua equipe. Solicite proposta comercial.

Conteúdo Programático

Introdução.

  • Introdução ao Apache Zeppelin.
  • O que é um interpreter.
  • Integração com Apache Spark.
  • Visualização de dados.
  • Pivot.
  • Formulários dinâmicos.
  • Notes e parágrafos.

Interpreters.

  • Markdown Interpreter.
  • JDBC Interpreter.
  • Hive Interpreter.
  • Shell Interpreter.
  • Spark Interpreter.

Instalando o Ambiente.

  • Adquirindo VM da Hortonworks - HDP.
  • Instalando a VM da Hortonworks - HDP.
  • Instalando uma VM Hortonworks Sandbox na Cloud Microsoft Azure.

Criando Notes com Apache Hive.

  • Criando Notes com o interpreter JDBC/Hive.
  • Utilizando SQL Like do Hive.
  • Criando gráficos.
  • Configurando gráficos.
  • Importando e exportando Notes.

Criando Notes com Shell Script.

  • Criando Notes com o interpreter Shell.
  • Manipulando e movendo arquivos com shell.
  • Manipulando o HDFS com interpreter shell.

Criando Notes com Apache Spark e Angular.

  • Criando Notes com o interpreter Spark.
  • Utilizando o interpreter Spark 2.
  • Usando o interpreter Angular para apoio de documentação.
  • Manipulando Dataframes com métodos Spark.
  • Visualizando dados com o interpreter Spark SQL.

Configurando Interpreters.

  • Configurando um novo Interpreter JDBC (PostgreSQL).
  • Utilizando o novo Interpreter para acessar o PostgreSQL.

Autenticação e Segurança.

  • Controlando acessos com Apache Shiro.

Carga Horária:

  • 3 Horas.

Pré-Requisitos:

  • Noções de Big Data ou Data Science ou Analytics.
  • Conhecimento básico em programação.
  • Conhecimento básico de manipulação de dados (SQL, DML, DDL)
  • Conhecimento básicos de redes. 

Requisitos:

Para aulas EAD ou transmissão ao Vivo.

  • Todos os participantes devem ter um computador para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.

Para aulas presenciais

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 16GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T ou Superior.
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Obs. Pode ser utilizado a VM Hortonworks Data Platform (HDP) Sandbox da Microsoft Azure (https://azuremarketplace.microsoft.com/en-us/marketplace/apps/hortonworks.hortonworks-sandbox) que tem todos os requisitos, porém o tempo de uso e calculado pela Azure e cobrado de seus créditos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Zeppelin e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Vídeo aulas desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Zeppelin e cursos Apache Zeppelin. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Consultoria em Pentaho Business Intelligence

O Software Pentaho Community Edition.

O Pentaho BI Open Source Business Intelligence oferece poderosas ferramentas de análise de informações, monitoramento de indicadores e data mining para que as organizações revolucionem o uso da informação gerencial, atingindo ganhos significativos de eficiência e eficácia. O software é uma plataforma completa de BI desenvolvida, distribuída e implantada como open source. Apresenta grande flexibilidade e independência de plataformas, alta  confiabilidade  e segurança a um custo mínimo de implantação e manutenção.

BI - Business Intelligence

Conjunto de conceitos, métodos e recursos tecnológicos que habilitam a obtenção e distribuição de informações geradas a partir de dados. Operacionais e históricos visando gerar resultados para tomada de decisão. O termo Business Intelligence (BI), pode ser traduzido como Inteligência de negócios, refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios. O pentaho Atende a todos os conceitos e funcionalidades de um software de Business Intelligence.

Vantagens do Pentaho.

  • Custo zero de licença de software.
  • Consolidação de informações da empresa.
  • Portal de análise 100% Web.
  • Extrair e integrar dados de múltiplas fontes.
  • Criação de painéis de  indicadores.
  • Ampliação da compreensão das tendências dos negócios.
  • Planejamento corporativo mais amplo.
  • Integra-se a qualquer software (ERP, CRM, BPM).
  • Instalado em cloud, nuvem ou servidor local.
  • Acesso controlado por departamento e usuário.
  • Atualização automática das informações.

Funcionalidades do Pentaho.

  • ETL com mais de 350 componentes prontos.        
  • Análise de Dados com cubos dinâmicos.
  • Suporte a mais de 350 tipos de gráficos.
  • Dashboards Interativos.
  • Relatórios gerenciais e operacionais.
  • Estatísticas através de mineração de dados.
  • Análise dos Dados do seu Big Data/Data Lake.
  • Acessível via Web e mobile responsivo.

Ambiente Livre e Pentaho Community Edition.

A Ambiente Livre é pioneira na prestação de serviços, com foco em softwares de código fonte aberto e apta a prestar: Consultoria, Treinamentos em turma aberta ou In Company, Implantação e  Suporte para  as  seguintes  soluções: Big Data, Business Intelligence (BI), Business Analitycs,Data Mining, Enterprise  Content  Management  (ECM), Business Process  Management  (BPM), CRM,CMS que geram maior controle e  flexibilidade às empresas. Com mais de 13 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios,  pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em Business Intelligence Open Source com a Plataforma Pentaho, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de Business Intelligence e Analytics Pentaho, através de capacitações, eventos, cursos de pentaho, workshops e treinamentos de Pentaho. Com profissionais com experiência de mais de 10 anos na plataforma Pentaho, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em Pentaho e se consolidamos como a principal referência em formação de tecnologias open source Pentaho para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso da plataforma Pentaho.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de dados em sua empresa com o Pentaho.

Consultoria em Pentaho.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do Plataforma Pentaho.
  • Consultoria na implantação e construção de Data warehouses e Data Lakes.
  • Consultoria em projetos Pentaho.
  • Desenvolvimento e Customizações do Pentaho.
  • Consultoria e apoio ao cliente na definição de organização dos dados no Pentaho.
  • Consultoria na instalação e configuração do Ambiente Pentaho com LDAP/AD.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na engenharia de como os dados devem ser armazenados.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de Dashboards.
  • Consultoria no desenvolvimento de Cubos e Analises.
  • Consultoria no desenvolvimento de ETLs, Pipeline de dados e Integrações.
  • Consultoria no desenvolvimento de Relatórios e Metadados.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em Pentaho.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em Pentaho Community Edition.
  • Suporte em Data Integration Community Edition.

Ambientes onde podemos implementar as soluções de Business Intelligence.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Microsoft - Azure.

Tecnologias que somos especialistas.

Conheça nossos treinamentos na plataforma Pentaho.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de dados. Entre em contato conosco.

 

Leia mais...

Log in