dbt (data build tool)

Marcio Junior Vieira

Marcio Junior Vieira

  • 22 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento Apache Spark com Scala para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.

Turmas Somente inCompany

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Scala

  • O que é Scala?
  • Apresentando Scala.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive -  Interactive Scala.
  • Escrevendo scripts Scala - Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Essencial em Scala

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala Para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Traits e OOPs em Scala

  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Scala e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Streaming

  • Spark Streaming Transformations.
  • Streaming Windows Transformations.
  • Create Dataframes.
  • Save DataFrames.
  • Tables and DataFrames.
  • Event Stream Processing (ESP).
  • Complex Event Processing (CEP).

Apache Spark com SQL e Hadoop Hive.

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

 

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Scala e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

Powered by BreezingForms


Instrutor

Leia mais...

Consultoria em BI - Business Intelligence e Business Analytics

A Ambiente Livre tem uma verticalização especialista em Business Intelligence e Business Analytics Open Source, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de BI Open Sources, através de capacitações, eventos, cursos, workshops e treinamentos. Com profissionais com experiência de mais de 8 anos nas plataformas de business Intelligence, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente  transferência de tecnologia através de seus treinamentos e se consolidamos como a principal referência em formação de tecnologias open source para gestão no mercado nacional. Já atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos.

Leia mais...

Consultoria em CRM - Customer Relationship Management

Ambiente Livre tem uma verticalização especialista em CRM Open Source, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de CRM Open Sources, através de capacitações, eventos, cursos, workshops e treinamentos. Com profissionais com experiência de mais de 10 anos nas plataformas de relacionamento com o cliente, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente  transferência de tecnologia através de seus treinamentos e se consolidamos como a principal referência em formação de tecnologias open source para gestão no mercado nacional. Já atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos.

Leia mais...

Consultoria em ECM e BPM

A Ambiente Livre tem uma verticalização especialista em BPM e ECM Open Source, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de ECM e BMP Open Sources, através de capacitações, eventos, cursos, workshops e treinamentos. Com profissionais com experiência de mais de 8 anos nas plataformas, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente  transferência de tecnologia através de seus treinamentos e se consolidamos como a principal referência em formação de tecnologias open source para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos.

Leia mais...

Treinamento Pentaho Data Integration - Kettle

Sobre o Treinamento

O treinamento é recomendado a profissionais que busca maximizar seus conhecimentos em processos de ETL (Extract, Transform e Load). O Pentaho Data Integration (também conhecido como Kettle) é uma poderosa ferramentas para transformações de dados (ETL), com o PDI (Pentaho Data Integration) você pode fazer tarefas como migração de dados, transformação de dados, conversões de sistemas ou carga de bancos de dados, além de tarefas avançadas como transferência de arquivos, envios de e-mails, integração com webservices (SOAP ou REST) e programações de scripts com schedules.
Todo o treinamento utiliza a versão Community Edition e pode ser interpretado como uma transferência de tecnologia para os participantes do curso.

Calendário de turmas abertas

  1. Online Ao Vivo
  • Data: e -
  • Local:Online Ao Vivo - Aos Sábados
  • Contato
next
prev

Objetivo

Ministrar as principais funcionalidades e técnicas do Pentaho Data Integration (Kettle) para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático:

Conceituais:

Instalação - Pentaho Data Integration

  • Instalação do Pentaho Data Integration (Linux,Windows e MacOS).
  • Ambiente Server (Produção e Desenvolvimento ).

PDI - Pentaho Data Integration - Fundamentos

  • Componentes do Pentaho Data Integration (Kettle).
  • Spoon.
  • Pan.
  • kitchen.
  • Steps e Hops.
  • Transformação de dados.
  • Transformando dados em bases de dados Dimensionais (OLAP).
  • Populando tabelas (Dimensões e Fatos).
  • Integração entre Sistemas Transacionais.
  • Trabalhando com Merge de dados.
  • Trabalhando com constantes.
  • Explorando componentes.
  • Enviando e-mails.
  • Trabalhando com Jobs.

PDI – Automatizando Jobs e Transformações

  • Automatizando Jobs e Transformações via agendador (Schedulers no Linux e Windows).
  • Passando Parâmetros via linha de comando.
  • Passagem de parâmetro entre transformações e Jobs.
  • Trabalhando com Logs.

Trabalhando com Planilhas e Arquivos Texto

  • Transformando Planinhas em bases de dados SQL.
  • Transformando Base de Dados SQL em Planinhas.
  • Transformando arquivos texto em bases de dados SQL.
  • Transformando Base de dados SQL em arquivos Texto (posicional ou delimitado).

Steps Complementares e Avançados

  • Steps de Input (Get System info ,get File Names, OLAP Input ,Email messages input).
  • Steps de Transformação ( Row denormaliser , Row flattener ,Row Normaliser ,Split field to Rows, Split Fields).
  • Steps Utility (Clone Row , If field value is null, Run SSH commands).
  • Steps Lookup (Call DB procedure, Check if a column exists, check if file is locked, Database Join, Database lookup, File Exists).
  • Steps Joins ( Join Rows ( cartesian product ), Merge rows (diff), Sorted Merge , XML Join).
  • Steps Experimentais (Script Javascript , Script Python).
  • Steps Jobs – Utility (ping a Host, Truncate tables).
  • Steps Jobs – Mail (Get mails POP3/IMAP).
  • Steps File management (Copy Files, create file, create a folder, file comparate, delete files, delete folters, Zip file).
  • Steps Condition (Check DB connection, Check webservice availability).
  • Steps Scripting (Javascript, Shell, SQL).
  • Steps XML (DTD Validation).
  • Steps File Transfer (FTP delete, Get a file with FTP, Get a file with SFTP, Upload files to FTPS, SSH2 Get, SSH2 Put).

PDI - WebServices e HTTP

  • Acesso a WebServices com Web services lookup (SOAP).
  • Acesso a WebServices REST com step Rest Client.
  • Gerando JSON para envio por REST com os steps JSON Output e JavaScript.
  • Chamadas HTTP por URL com step HTTP Client.
  • Chamadas submit via Post/HTTP com o step HTTP Post.

Carte – Execução remota

  • Conceitos do Carte.
  • Modos de Execução do Pentaho Data Integration.
  • Executando Transformações e Jobs remotamente.
  • Monitorando execuções remotas.
  • Master e Slaves com Carte.
  • Conceitual Dynamic Cluster.
  • Introdução a Data Staging.

Carga Horária

  • 16 Horas de Duração

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pela Hitachi Vantara.

  • Data: e -
  • Local:Online Ao Vivo - Aos Sábados
  • Contato
 

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento GLPI para Desenvolvedores

Sobre o Treinamento

GLPI é uma solução web Open-source completa para gestão de ativos e helpdesk. O mesmo gerência todos os seus problemas de inventário de ativos/hardwares e software e suporte ao usuário( helpdesk ). Principais características do GLPI: Multi Usuários.

Calendário de turmas abertas

Somente in Company

Objetivo

Ensinar as principais funcionalidades de customização do GLPI para condução da melhorias de funcionalidades.

Público Alvo

Desenvolvedores

 

Database

  • Modelo de Banco de Dados
  • Usando Triggers para customizações

Framework e Developer API

  • Main framework objects
  • Search Engine
  • Massive Actions
  • Rules Engine
  • Tradução.
  • Automatic actions.
  • Extra
  • Right Management.

Pacotes

  • Sources.
  • Filesystem Hirerarchy Standard.
  • Apache Configuration File.
  • Logs files rotation.
  • System libraries.

 

Customizações com Javascripts

  • Incluindo JavaScripts nas Interfaces

Relatórios

  • Alterando relatório existente
  • Criando um novo Relatório

Emails

  • Customizando emails de Notificação

Plugins para Devs

  • Plugins de apoio para customizações.
  • Customizando plugins existentes.

Desenvolvimento de Plugins

  • Estrutura de Diretórios
  • Setup.php
  • hook.php
  • Padrões de Código
  • Criando e Atualizando tabelas
  • Deletando tabelas
  • Definindo Objetos
  • Meu Objeto (CRUD)
  • Tips e Trips
  • Notificações

Temas

  • Customizando Temas
  • Alterando CSS 

Pré-Requisitos

  • Conhecimento básico Linux
  • Conhecimento em Banco de Dados MySQL/MariaDB
  • Conhecimento em PHP, JavaScript e CSS

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 16 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares GLPI e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Inscrições, Informações e Valores

[No form id or name provided!]


 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos GLPI e cursos GLPI. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Leia mais...

Treinamento Weka - Pentaho Data Mining- Inteligência Artificial, Machine Learning e Data Mining

Sobre o Treinamento

O treinamento passa uma visão fundamental e prática de como trabalhar com Inteligência Artificial, Machine Learning e Data Mining e o uso de ferramentas de mineração, os benefícios e os estudos sobre os dados, assim como a descoberta de conhecimento sobre bases de dados. Será apresentado como o Data Mining através da Inteligência Artificial (IA) e do Aprendizado de Máquina pode ajudar na melhoria dos negócios nas corporações e em suas estratégias.

Calendário de turmas abertas

  1. Turma Online Ao Vivo
  • Data: - -
  • Local: Google Meet e Plataforma Virtual da Ambiente Livre
  • Inscreva-se
next
prev

Objetivo

Apresentar conceitos importantes sobre Inteligência Artificial (IA), Machine Learning (ML) e como aplicá-los nas principais funcionalidades e técnicas de mineração de dados usando o Weka (Pentaho Data Mining).

Público Alvo

DBAs, gestores, desenvolvedores de sistemas, cientistas de dados, analistas de negocio, analistas de suporte e estatísticos.

Conteúdo Programático:

Conceitual:

  • O que é Inteligência?
  • Natureza do Conhecimento Humano.
  • Distinção entre dados, Informação e Conhecimento.
  • Os Sistemas Inteligentes.
  • Introdução a Inteligência Artificial.
  • Introdução a Machine Learning / Aprendizado de Máquina.
  • Introdução a Data Mining / Mineração de dados.
  • Motivações para Data Mining.
  • Cadeia de valores.
  • KDD.
  • KDD X Data Mining.
  • Seleção e Pré-Processamento.
  • Sumarização.
  • Classificação.
  • Regressão.
  • Associação.
  • Agrupamento.
  • Aprendizagem Não Supervisionada
  • Aprendizagem Supervisionada
  • Aprendizagem por Reforço
  • Extração de características
  • MBA - Market Basket Analysis.
  • Web Mining.
  • Uso do Data Mining na gestão estratégica de empresas.
  • Terminologia para classificação.
  • Matriz de confusão.
  • Acurácia, Probabilidade.
  • Recall.
  • Bases de Treinamento.

O Software - Weka Data Mining

  • Histórico do Weka (Pentaho Data Mining).
  • Instalando o Weka.
  • Interface e funcionalidades do Weka.
  • Os algoritmos do Weka.
  • Conhecendo o formato de arquivo ARRF.
  • Atributos e tipos de de atributos do formato ARFF.
  • Interpretação e Visualização de resultados.
  • Técnicas de apresentação de resultados.

Tratamento de Dados com o Software Pentaho Data Integration e Pentaho Machine Intelligence.

    
Hand Ons - Machine Learning e Data Mining.

  • Usando o algoritmo de classificação j48 (árvores de decisão).
  • Praticando a seleção e remoção de campos para encontrar insights interessantes e relevantes.
  • Executando algoritmos de classificação de forma supervisionada e não supervisionada.
  • Clusterizando dados com o Algoritmo SimpleKMeans.
  • Realizando uma regressão Linear com o Algoritmo LinearRegression.
  • Usando o algoritmo de associação APRIORI.
  • APRIORI para analise de carinho de compra (MBA).
  • Erros comuns e como evita-los
  • Executando algoritmos por linha de comando.
  • Realizando um trabalho prático com dados abertos.

Pré-Requisitos.

  • Ter afinidade com gerenciamento de dados ( Planilhas Eletrônicas, Banco de Dados , CSVs , etc )
  • Lógica de programação pode ajudar em alguns pontos do treinamento, mas é opcional.

Requisitos dos Alunos.

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 3GB
  • Espaço em Disco: 2GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : Linux, Windows , MacOS.

Carga Horária

  • 16 Horas de Duração.

Modalidade do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • Online Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho Data Integration e Weka Data Mining e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

A marca Pentaho é uma marca registrada pelos seus respectivos proprietários.

Próxima Turma

  • Data: - -
  • Local: Google Meet e Plataforma Virtual da Ambiente Livre
  • Inscreva-se
 


Solicite Informações e Valores

[No form id or name provided!]


Fotos dos treinamentos Pentaho Data Mining - Pentaho Machine Intelligence - Weka

 

Instrutor

Leia mais...

Treinamento Geo Business Intelligence com Pentaho

Sobre o Treinamento

O treinamento Geo Business Intelligence com Pentaho é recomendado a profissionais que já conheçam o fundamental da Plataforma Pentaho e querem conhecer os recursos e suportes do Pentaho ligados a GIS, GEO e MAPPING. Este treinamento demonstrar recursos de integracão e manipulação de dados geo espaciais, os steps e suportes do Pentaho Data Integration e as formar de renderização e apresentação visual nos cubos OLAPs e Dashboards do Pentaho.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar as principais funcionalidades e suportes da Plataforma Pentaho com foco na construção de Mapas e tratamentos de dados geo espaciais, gerando informações para tomada de decisão.

Público Alvo

O Curso Geo Business Intelligence com Pentaho, destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas, Cientistas de Dados , analistas de suporte entre outros profissionais envolvidos com gestão de dados espaciais.

Conteúdo Programático:

Introdução ao Pentaho Geo-Mapping

  • Visão geral do uso de Mapas no Pentaho.
  • Desafios de trabalhar com dados espaciais.
  • Principais recursos da plataforma Pentaho.

 Pentaho Data Integration e GEO MAPPING:

  • Manipulando dados geo espaciais com Pentaho Data Integration.
  • Instalando plugins adicionais no Pentaho Data Integration (PDI)
  • Trabalhando com latitude e longitude.
  • Step ESRI Shapefile Reader
  • Manipulando arquivos KML
  • PDI Gis Plugin.
  • MaxMind GeoIP Lookup
  • IP Locator Component
  • Onde Encontrar Base de Dados com Latitude e Longitude do Brasil

Mondrian e Geo Map

  • Criando uma dimensão com geo localização.
  • Suporte a Geo Map no Schema Mondrian
  • Annotations
  • Member properties

Construindo Dashboards com Mapas utilizando as CTools

  • Componentes Ctools para Mapas
  • New Map Component
  • Map Engine: Openlayers e Google Maps
  • Preparando o Datasource para os Mapas
  • Gerando Resultsets e metadados com PDI Datasource.
  • GeoCode
  • Filtrando dados em Mapas
  • Interatividade com Mapas nos Dashboards
  • Google Maps Overlay
  • IvyDC - Ivy Dashboard Components plugin
  • Visão geral dos Mapas em D3.js
  • Integrando D3.js Maps com CDE Dashboards
  • Integrando com a API do Google Maps

Pentaho Report e Geo Mapping

  • Adicionando Mapas ao PDR com as Ctools
  • Usando o CGG com Pentaho Report Designer (PRD)

 

Pré-requisitos de Conhecimento

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.
  • Conhecimento básico de GIS/GEO
  • Conhecimento Básico em Pentaho Data Integration
  • Conhecimento Básico em Pentaho Report Designer
  • Conhecimento Básico em Mondrian e Saiku
  • Conhecimento Básico em Ctools

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 16 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pelos seus respectivos proprietários.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutores

Leia mais...

Treinamento Pentaho Business Intelligence - Avançado

Sobre o Treinamento

O treinamento avançado é recomendado a profissionais quem busca maximizar seus conhecimentos na Plataforma Pentaho assim como aperfeiçoar seus conhecimentos em Business Intelligence.

Calendário de turmas abertas Pentaho CE - Avançado

  1. Curitiba
  2. Fortaleza
  • Data: - -
  • Local: Sede da Ambiente Livre
  • Contato
  • Data: - -
  • Local: Fortaleza Business Center - Aldeota
  • Contato
next
prev

Objetivo

Ministrar funcionalidades e técnicas avançadas do Pentaho BI e tuning do ambiente.

Público Alvo

O Curso Pentaho, Treinamento Pentaho destina-se a profissionais da area de Business Intelligence que já atuam com Pentaho.

Conteúdo Programático:

Treinamento em Pentaho Server - Pentaho User Console - Avançado

  • Configurações de memória da JVM e do Tomcat
  • Substituindo do banco de dados da aplicação
  • Integração com LDAP / AD.
  • Customizar de aparência do PUC através de Temas
  • Configurar para enviar e-mail
  • Configurando o Schedule
  • Fontes de Dados XMLA e JNDI
  • Deploy do Pentaho no Tomcat
  • Deploy do Pentaho no Jboss.
  • Configurações de performance no Tomcat
  • Tradução do Ambiente Server.
  • Arquitetura Multi-Tenancy.
  • Integração entre aplicações.
  • Pentaho em Cloud
  • Entendendo os Logs.

Treinamento em Pentaho Data Integration - Kettle - Avançado

  • Boas práticas na construção de ETLs
  • Configurações avançadas
  • Propriedades avançadas
  • Execução por linha de comando com pan e kitchen
  • Trabalhando com repositórios
  • Jobs e Transformações no Pentaho BI Server
  • Trabalhando com XML
  • Steps Avançados
  • Passagem de parâmetros ( Pan , Kitchen)
  • Geração de Relatórios
  • Executando jobs e transformações clusterizada com carter

Treinamento em MDX - Multidimensional Expressions.

  • Características do MDX.
  • Funções MDX
  • Funções de Metadata
  • Funções de Navegação
  • Funções de Tempo
  • Funções de String

Treinamento - Pentaho Analysis Mondrian - Avançado.

  • Cubos virtuais no Shema Workbench
  • Dimensões Virtuais
  • Medidas Virtuais
  • Configurando membros únicos.
  • Configurações avançadas do Shema Workbench
  • Trabalhando com membros calculados.
  • Configurando acessos aos cubos ( roles ).
  • Configurar logs Pentaho e Mondrian.
  • Alterar parâmetros do OLAP/Mondrian.
  • Trabalhando com Estilos no JPivot e Pivot4J.
  • Embutindo Javascript nos schemas.
  • Trabalhando com agregação de tabelas ( Pentaho Aggregation Designer  )
  • Gerando Cache do Mondrian via schedule
  • Construindo uma base de dados OLAP.

Treinamento - Pentaho Report Designer - Avançado

  • Parâmetros de filtros em cascata.
  • Fonte de dados de ETL
  • Fonte de dados de Metadado
  • Programando em BSH
  • Criando novos templates para PRD e Warq
  • Agendando envio de Relatórios por e-mail
  • Usando CGG ( Community Graphics Generator ) na geração de Gráficos

Treinamento - Pentaho MetaData Editor - Avançado

  • Conceitos avançados de metadados.
  • Conceitos de governança de dados.
  • Regras de Acesso.
  • Fórmulas nos Metadados.
  • Utilizando MQL (Metadada Query Language).

Treinamento em C*Tools

  • Propriedades Avançadas do CDE
  • Desenvolvendo Dashboards com CDF
  • Conceitos avançados do CDA.
  • Unindo dados com CDA.
  • Trabalhando com dados geo-referenciados em dashboards.
  • Integrando com Google Maps e Street Maps
  • Construindo Gráficos com CCC2
  • Integrando com Gráficos Protovis
  • Extension Points
  • Integrando Fusion Charts
  • Integrando com HightCharts
  • Desenvolvimento Dashboards com fontes de ETL
  • Desenvolvimento Dashboards com fontes de MQL

 

Pré-Requisitos

  • Conhecimento Fundamental na Suite Pentaho (veja a grade da formação fundamental).
  • Conhecimento básico em lógica de programação.
  • Conhecimento Básico em JavaScript.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 32 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Próxima Turma

  • Data: - -
  • Local: Sede da Ambiente Livre
  • Contato
 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

A marca Pentaho é uma marca registrada pelos seus respectivos proprietários.

Fotos dos treinamentos Pentaho Avançado

 

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Alfresco Platform - ECM e BPM Open Source

O treinamento Alfresco ECM e BPM Open Source é destinado há para quem precisa conhecer o fundamental do Alfresco ECM Open Source e implantar uma solução de ECM, no Brasil muito conhecida como GED - Gestão Eletrônica de Documento. O curso permite desde o uso do Alfresco no dia-a-dia, com suas principais funcionalidades, até funções mais avançadas como integrações.

Todo o treinamento e ministrado sobre a versão Community do
Alfresco, repassando conhecimentos sobre conceitos de GED - Gestão eletrônica de Documentos e os módulos do Alfresco: ECM - Enterprise Content Management , WCM - Web Content Management e o DM - Document Management. Materiais Alfresco Community Edition em Português do Brasil. Ambiente de educação e metodologia de ensino personalizada.

Conheça nosso conteúdo programático que foi construído para formação de consultores na plataforma de ECM Alfresco, O mesmo mescla conhecimentos conceituais de ECM, conhecimentos de negócio, assim como necessidades de infraestrutura, integração e programação, necessários para implementação completa do Software Alfresco.

Calendário de turmas abertas Alfresco Community.

  1. Online Ao Vivo
  • Data: - -
  • Local: Online Ao Vivo
  • Inscreva-se
next
prev

Nosso Expertise com o Alfresco Community.

A Ambiente Livre tem uma verticalização especialista em BPM e ECM Open Source, e atua levando conhecimento as empresas sobre a plataformas de ECM e BMP Open Source Alfresco, através de projetos, consultorias, capacitações, eventos, cursos de alfresco, workshops e treinamentos de Alfresco.

Profissionais com 14 anos de experiência na Plataforma Alfresco.

56 projetos implementados.

154 empresas atendidas com Alfresco no Brasil e África.

Referência Nacional em Alfresco Community.

632 Alunos formados em treinamentos Alfresco.

Relacionamento comunitário e contribuidora de projeto relacionados ao Alfresco Community.

Know-how para ajudar sua equipe a implantar uma solução robusta de gestão de documentos na sua empresa.

Dificuldade: Média.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Alfresco 7.3 e foi modificado pela última vez em 8 de Janeiro de 2024.

Conteúdo Programático

Conceitual - Visão geral da Plataforma Alfresco

  • Introdução ao Alfresco ECM (Enterprise Content Management).
  • Arquitetura e Tecnologias utilizadas.
  • Histórico da Alfresco.
  • Interfaces do Alfresco.
  • Empresas usando Alfresco.
  • Licenciamento do Alfresco e tipos de licenças.

Funcionalidades do Alfresco Content Services - ACS

  • Alfresco Share.
  • Console de Administração.
  • Configuração do repositório.
  • Gerenciando o repositório - Banco de dados.
  • Gerenciando o repositório - Sistema de arquivos.
  • Gerenciamento de conteúdo e armazenamento.
  • As funções do Administrador Alfresco.
  • Rastreabilidade de documentos.
  • Versionamento de Documentos.
  • Gestão de Metadados.

Instalação da Plataforma Alfresco.

  • Básico de Docker para Alfresco.
  • Preparação do ambiente de instalação.
  • Requisitos mínimos de configuração.
  • Principais decisões de arquitetura (Cloud, on-premises, etc).
  • Instalação do Alfresco.
  • Configurações e Propriedades Globais.
  • Configurações de Email
  • Memória Java do Container Tomcat Java J2EE.
  • Formas de Acesso (Share, FTP, Explorers, etc).
  • Adicionando sua identidade visual e alterando detalhes do Layout.

Alfresco Share - Interfaces de usuário.

  • Interfaces padrão.
  • Share.
  • Share arquitetura.
  • Site público e privado
  • Meu perfil.
  • Wiki.
  • Blog.
  • Calendário.
  • Links.
  • Discussão.
  • Listas.
  • Membros.

Autenticação e Segurança.

  • Overview de autenticação.
  • Modelo de segurança no Alfresco.
  • Papeis e usuários
  • Grupos e subgrupos.
  • Hierarquia de permissões.

Gestão do Repositório

  • Gerenciamento de conteúdo usando as regras.
  • As vantagens do workflow simples.
  • Gerenciando tags.
  • Gerenciando categorias.

Visão geral do modelo de conteúdo.

  • Nodes, node ids.
  • Relacionamentos, tipos, aspectos, associações.
  • O que é um modelo de conteúdo.
  • Construído em tipos e aspectos.
  • Implantação de um modelo de conteúdo.

Criando modelos de Conteúdo.

  • Gerenciamento do ciclo de vida de documentos.
  • Criação de novas pastas.
  • Criação e visualização de documentos.
  • Adição de comentários aos documentos
  • Gerenciamento de workflow.
  • Modelos de conteúdo explicado.
  • Tipos e propriedades.
  • Implantação de modelos de conteúdo.
  • Associações, aspectos e restrições.
  • Manifestação Interface de usuário.
  • Melhores prática.

Alfresco JavaScript API.

  • Alfresco JavaScript API.
  • Arquitetura do Alfresco JavaScript API.
  • O padrão do Javascript utilizado.
  • Funções essenciais.
  • Objetos Frequentes.
  • Como acessar objetos Alfresco usando a API
  • Manipulando conteúdos com Alfresco Javascript.
  • Manipulando propriedades de conteúdo Alfresco Javascript.

Introdução ao FreeMarker.

  • FreeMarker básico.
  • FreeMarker Alfresco API.
  • FreeMarker built-ins.

Alfresco Web Script.

  • A camada MVC do Alfresco.
  • Definição de um script da web.
  • Armazenar um script web.
  • Registrando um script da web.
  • Listando todos os scripts da web registrados.
  • Invocando um script da web.
  • Transformando um webscript em um serviço (SOAP ou REST).
  • Exemplo de uso de Alfresco Java Script com WebScript (meugoogle).

Alfresco Process Service - Workflow - Activiti.

  • Introdução básica a conceitos de workflow.
  • Introdução básica a BPM (Business Process Management).
  • Introdução básica a BMPN (Business Process Management Notation).
  • Introdução ao Activiti.
  • Empresas usuários de Activiti no Brasil e no mundo.
  • Histórico do Activiti.
  • Introdução ao Activiti Designer.
  • Instalação do Activiti Designer no Eclipse.
  • Desenvolvendo seu promeiro workflow com base em um modelo.
  • registrando novos workflows no Alfresco Share.
  • Realizando o Deploy do Workflow no Alfresco.
  • Estendendo um formulário e construindo um customizado com novos campos.
  • Realizando o deploy de modelos de conteúdo.
  • Interagindo com a camada de UI no Alfresco Share e formulários.
  • Executando o workflow customizado.

Alfresco Smart Folders.

  • Conceitos de Smart Folders.
  • Usando Smart Folders.
  • Scripts Smart Folders.

Alfresco Addons.

  • O que são Addons.
  • Introdução básica ao Alfresco Module Package (AMP)
  • Como instalar um addOn no formato AMP.
  • Como desinstalar um Addon no formato AMP.
  • Onde encontrar Addons e como selecionar.
  • Alterando o Layout do Alfresco com um Addon.

Assuntos gerais.

  • Space templates.
  • Backups.
  • Alfresco BART.
  • Livros e Referências do Mundo Alfresco Community
  • Comunidade Alfresco Brasil.
  • Overview de integração com Aplicações de Analytics e CMIS.

Carga Horária.

  • 32 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou Mac OS).
  • Conhecimento básico de banco de dado.
  • Conhecimento básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Alfresco Community e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações (somente em presenciais).

Metodologia.

  • O treinamento apresenta uma empresa fictícia chamada "CloudECM" onde será implantado o Alfresco e todas as fases da implantação.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Alfresco e cursos Alfresco. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Próxima turma:

 

  • Data: - -
  • Local: Online Ao Vivo
  • Inscreva-se
 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Vídeo Aula Demonstração

Assista aos conceitos iniciais do Alfresco.

Instrutores

Williane Delfino

  • Graduada em Pedagogia pela UFOPA.
  • Acadêmica de Análise e Desenvolvimento de Sistemas na UNAMA.
  • Vasta experiência como Gestora Pedagógica em ambientes não-escolares.
  • Atuou como assistente de apoio à aprendizagem na AIESEC Argentina.
  • Integrou o time de desenvolvedores Back-end Compass.uol e Everymind, especializado em integrações Mulesoft.
  • Especialista em customização de ECM com Alfresco e BPM com Camunda.
  • Realizou treinamentos para equipes de gestão empresarial com Alfresco Digital Business Platform.
  • Contribuidora de projetos Open Source como Camunda.
  • Palestrante na ConFLOSS.

Pedro Kravetz

  • Graduando em Engenharia da Computação UTFPR.
  • Técnico em Informática IFPR.
  • Atuando com Free Software e Open Source.
  • Mais de 1 ano de experiência em ECM e BPM.
  • Colaborador no projeto Open Source Camunda.
  • Palestrante na ConFLOSS.

Leia mais...

Log in