Overblog
Suivre ce blog Administration + Créer mon blog

Une brève introduction sur la plateforme Oracle Analytics Cloud et Oracle Day By Day.

Publié le par Marius LOWE

A. C réation d'une instance de serveur OAC Nous allons créer une instance OAC à partir de zéro. Nous allons ensuite nous connecter à une source de données Cloud et créer un modèle de schéma en étoile à l'aide du Cloud Data Modeler. En utilisant ce modèle,...

Lire la suite

Flume et Hive pour l’analyse de données twitter

Publié le par Marius LOWE

Dans cet article de blog, nous apprendrons comment diffuser des données Twitter à l'aide de Flume. Pour télécharger des tweets depuis Twitter, nous devons d'abord configurer l'application Twitter. Cliquer sur ce lien pour plus d’infos : https://docs.inboundnow.com/guide/create-twitter-application/...

Lire la suite

QlikView intégré à Hortonworks Data Platform (HDP).

Publié le par Marius LOWE

Dans cet article, nous allons décrire une Procédure de découverte et de visualisation des données dans HDP(schéma sales_analytics de Hive) à l'aide de QlikView. Qlik fournit une solution de Business Intelligence (BI) appelée QlikView. QlikView fournit...

Lire la suite

Configuration de workflow Oozie

Publié le par Marius LOWE

Dans cet article, nous allons créer un workflow oozie pour orchestrer le chargement quotidien de la table de dimension "Showroom" et la table de fait "Sales" de la source MySQL vers HDFS à l'aide de Sqoop, suivi du chargement de données de HDFS vers un...

Lire la suite

Chargement des données dans l'entrepôt Hive en tant que SCD Type 1.

Publié le par Marius LOWE

Dans cet article, nous chargerons les données client dans l'entrepôt Hive en tant que SCD Type 1. Cette fois, nous suivrons une approche différente pour mettre en œuvre la stratégie d'insertion/mise à jour ou de fusion à l'aide de Hive QL, plutôt que...

Lire la suite

Implementation Data lake hadoop : Chargement des fichiers de données dans HDFS.

Publié le par Marius LOWE

Maintenant que notre système source OLTP fictif et notre structure de répertoires Hadoop HDFS sont prêts, nous allons d’abord charger le fichier de données «Dates» dans HDFS, puis dans une table Hive. Se connecter à la console ssh avec l'utilisateur edw_user,...

Lire la suite

Configuration des répertoire HDFS, l’optimisation de Sqoop Metastore, Oozie et Hive.

Publié le par Marius LOWE

Dans ce lab, nous allons démontrer un cas typique d’utilisation analytique des ventes et des stocks de voitures. Téléchargez les exemples de fichiers de données pour cet exercice. Il existe un fichier de données contenant des attributs de date afin de...

Lire la suite

Implémentation Hadoop DataLake "Configuration HDP"

Publié le par Marius LOWE

Nous allons dans cet article accéder à la ligne de commande de la Sandbox HDP, à l'interface utilisateur Web Ambari, à Hive & Ranger pour créer un utilisateur pour notre configuration d'implémentation. Une fois que la sandbox et/ou le cluster HDP est...

Lire la suite

Implementation Data Lake avec Hadoop

Publié le par Marius LOWE

Dans cet article de plusieurs séries, nous allons apprendre à mettre en œuvre un Data Lake à l’aide d’Apache Hadoop, un Framework logiciel open source basé sur Java pour un système d’information fiable, évolutive et distribuée. Apache Hadoop aborde les...

Lire la suite

POURQUOI DOCKER

Publié le par Marius LOWE

L’installation et la configuration de package/logiciel sont une problématique omniprésente dans la gestion du SI. Ces processus, bien qu’existants depuis la création de l’informatique, restent une activité complexe : Gestion des dépendances – l’installation...

Lire la suite

1 2 3 > >>