m

F Nous contacter


0

Documents  68P05 | enregistrements trouvés : 6

O
     

-A +A

P Q

Déposez votre fichier ici pour le déplacer vers cet enregistrement.
Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Depuis les années 2000, l'informatique a vu émerger de nouvelles technologies, cloud et big data, qui bouleversent l'industrie avec l'arrivée d'outils de traitement à grande échelle.
De nouveaux besoins sont apparus comme la possibilité d'extraire de la valeur des données en s'appuyant sur des outils qui répondent aux nouvelles exigences technologiques.
Les architectures distribuées comme Hadoop, les bases de données non-relationnelles, les traitements parallélisés avec MapReduce constituent des outils qui répondent aux accroissements massifs des données, que ce soit en volumétrie, en nombre ou en type. Cette explosion de données a conduit à la terminologie Big Data.
Nous découvrirons les différents concepts des systèmes Big Data, ce que signifient les termes comme base NoSQL, MapReduce, lac de données, ETL ou ELT, etc.
Nous nous attarderons sur deux grands outils du BigData : Hadoop et MongoDB.
Depuis les années 2000, l'informatique a vu émerger de nouvelles technologies, cloud et big data, qui bouleversent l'industrie avec l'arrivée d'outils de traitement à grande échelle.
De nouveaux besoins sont apparus comme la possibilité d'extraire de la valeur des données en s'appuyant sur des outils qui répondent aux nouvelles exigences technologiques.
Les architectures distribuées comme Hadoop, les bases de données non-relationnelles, les ...

68P15 ; 68P05 ; 68P20

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Proposition d'une démarche pour le traitement de données complexes et/ou massives à des fins d'exploration interactive. Basée sur la mise en œuvre effective dans un contexte de données de santé, cette démarche propose d'explorer des notions connues mais peu utilisées qui émergent comme les bases graphes pour modéliser un lac de données et l'exploiter. Nous balayons quelques environnements système (Hadoop, bases NoSQL, ETL) et effleurons les contraintes de sécurité d'accès.
Proposition d'une démarche pour le traitement de données complexes et/ou massives à des fins d'exploration interactive. Basée sur la mise en œuvre effective dans un contexte de données de santé, cette démarche propose d'explorer des notions connues mais peu utilisées qui émergent comme les bases graphes pour modéliser un lac de données et l'exploiter. Nous balayons quelques environnements système (Hadoop, bases NoSQL, ETL) et effleurons les ...

68P05 ; 68P15 ; 68P20

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

L'apparition des "Big Data" est en train de modifier profondément notre compréhension du traitement algorithmique de l'information. Le centre de gravité s'est déplacé du calcul vers les données, et le passage à l'échelle est devenu une notion centrale. En particulier, la prise en compte de la localisation géographique des données, du coût de leur déplacement et de leur disponibilité sont devenus des facteurs majeurs de la conception des applications.
Cette nouvelle vision "centrée sur les données" et "consciente de l'échelle" (data-centric, scaling-aware) renouvelle complètement la problématique de l'algorithmique et de la programmation, à la fois dans les outils théoriques utilisés et aussi dans les méthodologies pratiques mises en oeuvre. Cet exposé présentera quelques-uns des aspects ainsi touchés et proposera des pistes pour adapter l'enseignement de l'informatique à ce nouveau paysage.
L'apparition des "Big Data" est en train de modifier profondément notre compréhension du traitement algorithmique de l'information. Le centre de gravité s'est déplacé du calcul vers les données, et le passage à l'échelle est devenu une notion centrale. En particulier, la prise en compte de la localisation géographique des données, du coût de leur déplacement et de leur disponibilité sont devenus des facteurs majeurs de la conception des ...

68P05 ; 68T05 ; 68W40

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Plans de gestion des données (DMP)
OPIDoR (DMP OPIdoR, Cat opidOr, Datacite) et Doranum.

68M11 ; 68P05

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Multi angle  Open Science et données de la recherche
Janody, Julie (Auteur de la Conférence) | CIRM (Editeur )

Présentation du contexte général de l'"Open Science" (historique, principes, acteurs et vocabulaire) et des enjeux liés aux données de la recherche (traçabilité, reproductibilité, intégrité scientifique) / J. Janody
Projets nationaux et internationaux et recommandations des agences de financement de la recherche / B. Sampité

68M11 ; 68P05

Z