Carga horária: 16 horas
Apresentação das teorias de diversos autores sobre Business Intelligence e Data Warehouse e exercícios práticos que simulam situações reais do dia-a-dia de um projetista de soluções de BI.
Ementa:
Módulo I – Conceitos Básicos: Business Intelligence, Base de Dados Operacional X Data Warehouse, Arquiteturas de Desenvolvimento, Fases do Desenvolvimento de um DW, Implicações no Desenvolvimento de um DW, Ferramentas
Módulo II – Noções de Modelagem para Data Warehouse: Revisão do Modelo Relacional, Modelo Multidimensional, Elementos da Modelagem Multidimensional, Data Warehouse Relacional, Star-schema x Snow-flake, Agregações
Módulo III – Estudo de Caso: Modelo de Dados, Processo ETL – DataStage, Processo OLAP – Cognos
Carga horária: x horas
Ementa:
Apresentação das principais técnicas para modelagem de dados, seja para ambientes OLTP ou OLAP. Exercícios práticos que simulam situações reais do dia-a-dia na modelagem de dados lógica e conceitual, relacional ou multidimensional.
Carga horária: 40 horas
O curso dará ao aluno uma ampla visão das ferramentas utilizadas para o desenvolvimento de relatórios e dashboards básicos no Cognos. O curso será focado em modelagem e publicação das fontes de dados e na criação dos relatórios (Lista, Crosstab, Gráficos, Mapas, Etc.)
Ementa:
Cognos Connection
Framework Manager Basico
Cognos Connection
Query Studio
Analysis Studio
Cognos Workspace
Cognos Workspace Advanced
Cognos Insight
Report Studio Básico
Carga horária: 48 horas
O curso dará a possibilidade dos alunos instalarem e configurarem a aplicação, configurar a segurança nos pacotes e nos dados além de criar e examinar as especificações do relatório, utilizar bursting e utilizar html para maior interação.
Ementa:
Instalação e Configuração
Administração e Segurança
Framework Manager Avançado
Transformer
Report Studio Avançado (Modelo Relacional de Dimensional)
Active Report
Carga horária: 24 horas
Capacitação da criação e configuração de projetos, importação de metadados, backup de projetos, desenvolvimento e monitoramento de processos ETL na ferramenta IBM InfoSphere DataStage.
Ementa:
Conceitos Básicos: Conceitos gerais da ferramenta; Arquitetura da ferramenta; Descrição dos 3 componentes: Designer, Director e Administrator.
Administrator: Visão Geral; Criação e configuração de projetos; Configuração do ambiente de trabalho DataStage.
Designer: Descrição e utilização dos principais estágios do DataStage Server; Estágios passivos; Estágios ativos; Importando metadados; Arquivos seqüenciais; Transformer; Leitura e gravação em Banco de Dados; Utilização do estágio ODBC; Tabelas hash; Classificações; Agregações; Rotinas Basic; Criação e utilização de variáveis de estágio; Criação e execução de jobs sequences.
Director: Execução e monitoramento de jobs; Análise dos logs dos jobs; Agendamento de jobs.
Carga horária: 16 horas
Capacitação na criação e configuração de projetos no DataStage, importação de metadados, backup de projetos, desenvolvimento de processos ETL do tipo parellel, compreensão dos tipos de particionamento de dados e qual o particionamento adequado para cada estágio utilizado na construção dos jobs DataStage.
Ementa:
Conceitos Básicos: Conceitos gerais da ferramenta, Arquitetura da ferramenta, Descrição dos 4 componentes: Designer, Manager, Director e Administrator, Técnicas de organização dos jobs e repositório de dados, Técnicas de implementação de jobs DataStage
Características do Enterprise Edition: Orchestrate, Conceitos de processamento paralelo, Performance obtida com o processamento paralelo, Ambientes de processamento (SMP, MPP), Tipos de paralelismo (Pipeline, Particionamento), Métodos de Particionamento e Junção de dados (Comentários e exemplos dos principais métodos disponíveis), Flag de particionamento, Arquivo de configuração (Sintaxe e padrões para construção, Exemplo de arquivo de configuração, Editor de configuração, Criação, alteração, exclusão e compilação de um arquivo de configuração, Variável de ambiente APT_CONFIG_FILE)
Administrator: Criação e configuração de projetos; Configuração do ambiente de trabalho DataStage; Principais variáveis de ambiente
Manager: Importação de metadados fonte e destino; Importação e exportação de componentes DataStage entre ambientes; Backup de projetos e Jobs; Criação e utilização de rotinas Basic; Configurações do ambiente de paralelismo
Designer: Descrição e utilização dos principais estágios do DataStage Parallel Server (Estágios ativos e passivos; Arquivos sequenciais; Leitura e gravação em Banco de Dados; Validações “Look-up”; Classificações; Agregações; Merge; Descrição da funcionalidade dos demais estágios mais utilizados; Exemplos práticos dos principais estágios); Datasets (Conceito de Dataset; Gerenciamento de datasets); Transformações utilizando as principais funções do DataStage; Criação e utilização de variáveis de estágio; Criação e utilização de parâmetros de job; Criação e utilização de variáveis de ambiente; Criação e execução de jobs sequencers; Implementação de processo de restart através de jobs sequencers
Director: Execução e monitoramento de Jobs; Análise dos logs dos Jobs; Agendamento de jobs
Carga horária: 32 horas
Capacitação na realização de tarefas administrativas na Web Console (IBM Information Server), criação de usuário e perfis de acessos às ferramentas da suíte, realização de tarefas administrativas com foco na ferramenta DataStage.
Ementa:
Introdução: Suite IBM Information Server; Arquitetura da ferramenta; Descrição dos componentes: Designer, Director e Administrator
Information Server Web Console: Gerenciamento do domínio; Gerenciamento de Sessões; Criação de usuários e grupos; Gerenciamento de Logs; Monitoramento de agendamentos
Operations Console: Monitoramento dos serviços, execução de jobs, utilização de recursos (CPU e memória); Monitoramento dos projetos e visualização dos jobs e suas informações
DataStage Administrator: Criação e exclusão de projetos; Configuração das propriedades dos projetos; Definição de variáveis de ambiente; Permissão de usuários; Definição de perfis; Configuração de logs
Designer: Tipos de jobs: Server, Paralel e Sequence; Estágios e Links; Propriedades dos jobs – Parâmetros; Importação de Metadados; Import/Export componentes DataStage; Rotinas (Server e Parallel); Arquivo de configuração; Gerenciamento de Datasets; Compilação de múltiplos jobs
Director: Interface gráfica de monitoramento; Modos de visualização; Execução e agendamento de Jobs; Geração de arquivo com a log de execução; Limpeza de logs de execução
Ambiente Unix/Linux: Administração do serviço DataStage; Arquivo de parâmetros do projeto; Limpeza do diretório &PH& dos projetos; Arquivos de configuração; Utilitários DSJOB e DSADMIN
Ambiente Windows: Exportação de componentes DataStage via linha de comando; Importação de componentes DataStage via linha de comando
Instalação do Information Server
Documentação
Carga horária: 32 horas
Capacitação na execução de processos de análise de dados, identificando padrões e anomalias nos dados, desenvolvimento de regras de qualificação e padronização dos dados, processos para identificar duplicidades e implementação de regras de sobrevivência do registro Master, contemplando os melhores dados.
Ementa:
Introdução: Suite IBM Information Server; Overview do QualityStage; Benefícios da qualidade de dados; Desafios; Problemas comuns dos dados; Metodologia de qualificação de dados
Arquitetura: Information Server; Módulos do QualityStage; Administrator Client; Designer Client; Director Client
Desenvolvendo com o QualityStage: Componentes do QualityStage; Propriedades do job; Metadados; Import/Export Componentes; Rotinas Parallel; Standardization Rules; Match Specifications
Investigação: Métodos de Investigação; Character Discrete; Character Concatenate; Word Investigate
Padronização: Regras de padronização; Classification Table; Dictionary File; Pattern Action File; Implementando a padronização; Resultado da padronização; Aplicar overrides
Comparação (Match): Identificando duplicidades; Definindo campos de blocagem; Tipos de Match; Algorítimos de comparação; Match Frequence; Match Specification
Sobrevivência (Survive): Regras de Sobrevivência; Regras customizadas; Regras pré definidas; Construíndo as regras de Survive
Carga horária: 24 horas
Capacitação na execução de processos de análise de conteúdo e estrutura de dados, com o objetivo de conhecer a qualidade dos dados, revisar as inferições realizadas pela ferramenta, executar análise de chave primária e chave estrangeira, cross-domain, criação de regras e métricas de qualidade de dados.
Ementa:
Overview sobre profiling e Information Analyzer: Column Analysis; Key and Cross-Domain Analysis; Baseline Analysis; Funcionalidades analíticas; Relatórios; Segurança; Compartilhamento de Metadados; Arquitetura; Paralelismo
Data quality assessment: DQA – Abordagem; DQA – Ferramentas; DQA – Benefícios
Information Analyzer: Introdução (Logon e Interface Gráfica); Navegação; Workspaces
Resources/Metadata/Projects: Configurar conexões do repositório e Data Sources (SGDB ou arquivos); Definir credencial do DataStage; Verificar as configurações de análise; Cadastrar os Data Sources; Importar os metadados; Criar, remover e definir propriedades dos projetos; Import and Export Projects
Column Analysis: Frequency Distribution; Data Class; Properties; Domain & Completeness; Format; Reference Tables; Virtual Columns; Dashboard
Key and Cross-Domain Analysis: Primary Key (single or multi-column); Foreign Key; Integridade Referencial
Baseline Analysis: Set Baseline; View Baseline Analysis; Reporting and Publishing Results; Publish Analysis Results; Visualizar as informações da análise no DataStage; Visualizar as informações da análise no Business Glossary
Data Quality: Características das regras; Data Rule Definition; Generate Data Rule or Rule Set; Publicando uma Data Rule Definition; Rule Set Definition; Metrics
Enterprise Data Management and Integration: Classificando dados; Classes and Sub-Classes; Termos