Catégories



Bad Data Handbook / Q. Ethan McCallum
Titre : Bad Data Handbook Type de document : texte imprimé Auteurs : Q. Ethan McCallum, Auteur ; Kevin Fink, Auteur ; Paul Murrell, Auteur ; Josh Levy, Auteur ; Adam Laiacano, Auteur ; Jacob Perkins, Auteur ; Spencer Burns, Auteur ; Richard Cotton, Auteur ; Philipp K. Janert, Auteur ; Jonathan Schwabish, Auteur ; Brett Goldstein, Auteur ; Bobby Norton, Auteur ; Steve Francia, Auteur ; Tim McNamara, Auteur ; Marck Vaisman, Auteur ; Pete Warden, Auteur ; Jud Valeski, Auteur ; Reid Draper, Auteur ; Ken Gleason, Auteur ; Mike Loukides, Editeur scientifique ; Meghan Blanchette, Editeur scientifique Editeur : Sebastopol, CA [Etats-Unis] : O'Reilly Année de publication : 2013 Importance : 1 vol. (245 p.) Présentation : couv. ill. Format : 24 cm ISBN/ISSN/EAN : 978-1-4493-2188-8 Prix : 39.99 $ Note générale : La couverture porte en plus : "Mapping the World of Data Problems". - Index. Langues : Français (fre) Catégories : Analyse des données
Données massivesIndex. décimale : 004 Informatique - Méthodes agiles - Gestion de projets (informatique) Résumé : "What is bad data? Some people consider it a technical phenomenon, like missing values or malformed records, but bad data includes a lot more. In this handbook, data expert Q. Ethan McCallum has gathered 19 colleagues from every corner of the data arena to reveal how they’ve recovered from nasty data problems.
From cranky storage to poor representation to misguided policy, there are many paths to bad data. Bottom line? Bad data is data that gets in the way. This book explains effective ways to get around it.
Among the many topics covered, you’ll discover how to:
Test drive your data to see if it’s ready for analysis
Work spreadsheet data into a usable form
Handle encoding problems that lurk in text data
Develop a successful web-scraping effort
Use NLP tools to reveal the real sentiment of online reviews
Address cloud computing issues that can impact your analysis effort
Avoid policies that create data analysis roadblocks
Take a systematic approach to data quality analysis" (4e de couverture)Note de contenu :
1. Chapter 1 Setting the Pace: What Is Bad Data?
2. Chapter 2 Is It Just Me, or Does This Data Smell Funny?
3. Chapter 3 Data Intended for Human Consumption, Not Machine Consumption
4. Chapter 4 Bad Data Lurking in Plain Text
5. Chapter 5 (Re)Organizing the Web’s Data
6. Chapter 6 Detecting Liars and the Confused in Contradictory Online
Reviews
7. Chapter 7 Will the Bad Data Please Stand Up?
8. Chapter 8 Blood, Sweat, and Urine
9. Chapter 9 When Data and Reality Don’t Match
10. Chapter 10 Subtle Sources of Bias and Error
11. Chapter 11 Don’t Let the Perfect Be the Enemy of the Good: Is Bad Data Really Bad?
12. Chapter 12 When Databases Attack: A Guide for When to Stick to Files
13. Chapter 13 Crouching Table, Hidden Network
14. Chapter 14 Myths of Cloud Computing
15. Chapter 15 The Dark Side of Data Science
16. Chapter 16 How to Feed and Care for Your Machine-Learning Experts
17. Chapter 17 Data Traceability
18. Chapter 18 Social Media: Erasable Ink?
19. Chapter 19 Data Quality Analysis Demystified: Knowing When Your Data Is Good Enough
Index
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20523 Bad Data Handbook [texte imprimé] / Q. Ethan McCallum, Auteur ; Kevin Fink, Auteur ; Paul Murrell, Auteur ; Josh Levy, Auteur ; Adam Laiacano, Auteur ; Jacob Perkins, Auteur ; Spencer Burns, Auteur ; Richard Cotton, Auteur ; Philipp K. Janert, Auteur ; Jonathan Schwabish, Auteur ; Brett Goldstein, Auteur ; Bobby Norton, Auteur ; Steve Francia, Auteur ; Tim McNamara, Auteur ; Marck Vaisman, Auteur ; Pete Warden, Auteur ; Jud Valeski, Auteur ; Reid Draper, Auteur ; Ken Gleason, Auteur ; Mike Loukides, Editeur scientifique ; Meghan Blanchette, Editeur scientifique . - Sebastopol, CA (Etats-Unis) : O'Reilly, 2013 . - 1 vol. (245 p.) : couv. ill. ; 24 cm.
ISBN : 978-1-4493-2188-8 : 39.99 $
La couverture porte en plus : "Mapping the World of Data Problems". - Index.
Langues : Français (fre)
Catégories : Analyse des données
Données massivesIndex. décimale : 004 Informatique - Méthodes agiles - Gestion de projets (informatique) Résumé : "What is bad data? Some people consider it a technical phenomenon, like missing values or malformed records, but bad data includes a lot more. In this handbook, data expert Q. Ethan McCallum has gathered 19 colleagues from every corner of the data arena to reveal how they’ve recovered from nasty data problems.
From cranky storage to poor representation to misguided policy, there are many paths to bad data. Bottom line? Bad data is data that gets in the way. This book explains effective ways to get around it.
Among the many topics covered, you’ll discover how to:
Test drive your data to see if it’s ready for analysis
Work spreadsheet data into a usable form
Handle encoding problems that lurk in text data
Develop a successful web-scraping effort
Use NLP tools to reveal the real sentiment of online reviews
Address cloud computing issues that can impact your analysis effort
Avoid policies that create data analysis roadblocks
Take a systematic approach to data quality analysis" (4e de couverture)Note de contenu :
1. Chapter 1 Setting the Pace: What Is Bad Data?
2. Chapter 2 Is It Just Me, or Does This Data Smell Funny?
3. Chapter 3 Data Intended for Human Consumption, Not Machine Consumption
4. Chapter 4 Bad Data Lurking in Plain Text
5. Chapter 5 (Re)Organizing the Web’s Data
6. Chapter 6 Detecting Liars and the Confused in Contradictory Online
Reviews
7. Chapter 7 Will the Bad Data Please Stand Up?
8. Chapter 8 Blood, Sweat, and Urine
9. Chapter 9 When Data and Reality Don’t Match
10. Chapter 10 Subtle Sources of Bias and Error
11. Chapter 11 Don’t Let the Perfect Be the Enemy of the Good: Is Bad Data Really Bad?
12. Chapter 12 When Databases Attack: A Guide for When to Stick to Files
13. Chapter 13 Crouching Table, Hidden Network
14. Chapter 14 Myths of Cloud Computing
15. Chapter 15 The Dark Side of Data Science
16. Chapter 16 How to Feed and Care for Your Machine-Learning Experts
17. Chapter 17 Data Traceability
18. Chapter 18 Social Media: Erasable Ink?
19. Chapter 19 Data Quality Analysis Demystified: Knowing When Your Data Is Good Enough
Index
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20523 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 0260922 004 MCC B Livre Bibliothèque IESSID Livres Disponible Recherche d'information : applications, modèles et algorithmes / Massih-Reza Amini
Titre : Recherche d'information : applications, modèles et algorithmes Type de document : texte imprimé Auteurs : Massih-Reza Amini, Auteur ; Éric Gaussier, Auteur ; Stephen Robertson, Postfacier, auteur du colophon, etc. ; Grégoire Péan, Collaborateur Editeur : Paris [France] : Editions Eyrolles Année de publication : 2013 Collection : Algorithmes, ISSN 1625-113X Importance : 1 vol. (233 p.) Présentation : ill. Format : 24 cm ISBN/ISSN/EAN : 978-2-212-13532-9 Prix : 39 € Note générale : La couverture porte en plus : "Fouille de données, décisionnel et big data" Langues : Français (fre) Catégories : Algorithmes
Bases de données
Données massives
Informatique
Recherche documentaire
Recherche documentaire automatisée
Recherche sur Internet
WebIndex. décimale : 004C Informatique documentaire - Recherche de l'information Résumé :
"Le premier ouvrage francophone sur les algorithmes qui sous-tendent les technologies de big data et les moteurs de recherche !
Depuis quelques années, de nouveaux modèles et algorithmes sont mis au point pour traiter des données de plus en plus volumineuses et diverses. Cet ouvrage présente les fondements scientifiques des tâches les plus répandues en recherche d'information (RI), tâches également liées au data mining, au décisionnel et plus généralement à l'exploitation de big data.
Il propose un exposé cohérent des algorithmes classiques développés dans ce domaine, abordable à des lecteurs qui cherchent à connaître le mécanisme des outils quotidiens d'Internet.
Le lecteur approfondira les concepts d'indexation, de compression, de recherche sur le Web, de classification et de catégorisation, et pourra prolonger cette étude avec les exercices corrigés proposés en fin de chapitre.
Ce livre s'adresse tant aux chercheurs et ingénieurs qui travaillent dans le domaine de l'accès à l'information et employés de PME qui utilisent en profondeur les outils du webmarketing, qu'aux étudiants de Licence, Master, doctorants ou en écoles d'ingénieurs, qui souhaitent un ouvrage de référence sur la recherche d'information." (4e de couverture)
Note de contenu :
PREFACE
LISTE DES ALGORITHMES
NOTATIONS
LISTE DES FIGURES
1. INTRODUCTION
1.1. Concepts étudiés dans ce livre
1.2. Organisation du livre
2. REPRESENTATION ET INDEXATION
2.1. Prétraitements linguistiques
--- 2.1.1. Segmentation
--- 2.1.2. Normalisation
--- 2.1.3. Filtrage par antidictionnaire
2.2. Les deux lois de base en recherche d'information
--- 2.2.1. Loi de Heaps
--- 2.2.2. Loi de Zipf
2.3. Représentation documentaire
--- 2.3.1. Modèle vectoriel
--- 2.3.2. Pondération des termes
2.4. Index inversé
--- 2.4.1. Indexation dans les collections statiques
--- 2.4.2. Indexation dans les collections dynamiques
3. RECHERCHE D'INFORMATION
3.1. Modèles de recherche
--- 3.1.1. Modèles booléens
--- 3.1.2. Modèles vectoriels
--- 3.1.3. Modèles probabilistes
--- 3.1.4. Une approches axiomatique de la RI
3.2. Expansion de requêtes
--- 3.2.1. La méthode "boucle de rétro
pertinence"
--- 3.2.2. La méthode "boucle de rétropertinence en aveugle"
3.3. Mesures d'évaluation
--- 3.3.1. Evaluation de résultats non ordonnées
--- 3.3.2. Evaluation de résultats ordonnées
3.4. Exercices
4. RECHERCHE SUR LE WEB
4.1. Architecture de la Toile
4.2. Trois inventions à la base du Web
--- 4.2.1. Langage HTML
--- 42.2. Protocole de transfert hypertexte et adresses Web
4.3. Collecte et indexation des pages sur la Toile
--- 4.3.1. Robot d'indexation
--- 4.3.2. Index distribué
4.4. Nouvelles stratégies de recherche
--- 4.4.1. Modèle d'apprentissage automatique pour la RI
--- 4.4.2. PageRank
4.5. Exercices
5. CATEGORISATION DE DOCUMENTS
5.1. Formalisme
5.2. Sélection de variables
--- 5.2.1. Le seuillage sur la mesure Document Frequancy (df)
--- 5.2.2. L'information mutuelle ponctuelle (IMP)
--- 5.2.3. L'information mutuelle (IM)
--- 5.2.4. La mesure X²
5.3. Modèles génératifs
--- 5.3.1. Modèle multivariés de Bernoulli
--- 5.3.2. Modèle multinomial
5.4. Modèles discriminants
--- 5.4.1. Modèle logistique
--- 5.4.2. Séparateur à vaste marge
5.5. Mesures d'évaluation
5.6. Exercices
6. PARTITIONNEMENT DE DOCUMENTS
6.1. Définitions
6.2. Les étapes du partitionnement
6.3. Principaux algorithmes de partitionnement
--- 6.3.1. Partitionnement à plat: méthodes de réallocation
--- 6.3.2. Partitionnement hiérarchique
6.4. Evaluation
6.5. Applications à l'accès à l'information
6.6. Exercices
7. RECHERCHE DE THEMES LATENTS
7.1. Analyse sémantique latente
--- 7.1.1. Décomposition en valeurs singulières
--- 7.1.2. L'analyse sémantique latente pour la RI
--- 7.3. Limitations
7.2. Analyse sémantique latente probabiliste
--- 7.2.1. Remarques
7.3. Le modèle LDA
7.4. Exercices
8. CONSIDERATIONS PRATIQUES
8.1. Logiciels libres pour la recherche d'information
--- 8.1.1. dpSearch
--- 8.1.2. Lucene/SolR
--- 8.1.3. MG
--- 8.1.4. Terrier
--- 8.1.5. Zettair
8.2. Logiciels libres pour la catégorisation et le partitionnement
8.3. Le passage à l'échelle ou le Big Date
--- 8.3.1. Traitement parallèle et distribué
--- 8.3.2. Traitement de flux de données
BIBLIOGRAPHIE
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20531 Recherche d'information : applications, modèles et algorithmes [texte imprimé] / Massih-Reza Amini, Auteur ; Éric Gaussier, Auteur ; Stephen Robertson, Postfacier, auteur du colophon, etc. ; Grégoire Péan, Collaborateur . - Paris (61, bd Saint-Germain, 75240, France) : Editions Eyrolles, 2013 . - 1 vol. (233 p.) : ill. ; 24 cm. - (Algorithmes, ISSN 1625-113X) .
ISBN : 978-2-212-13532-9 : 39 €
La couverture porte en plus : "Fouille de données, décisionnel et big data"
Langues : Français (fre)
Catégories : Algorithmes
Bases de données
Données massives
Informatique
Recherche documentaire
Recherche documentaire automatisée
Recherche sur Internet
WebIndex. décimale : 004C Informatique documentaire - Recherche de l'information Résumé :
"Le premier ouvrage francophone sur les algorithmes qui sous-tendent les technologies de big data et les moteurs de recherche !
Depuis quelques années, de nouveaux modèles et algorithmes sont mis au point pour traiter des données de plus en plus volumineuses et diverses. Cet ouvrage présente les fondements scientifiques des tâches les plus répandues en recherche d'information (RI), tâches également liées au data mining, au décisionnel et plus généralement à l'exploitation de big data.
Il propose un exposé cohérent des algorithmes classiques développés dans ce domaine, abordable à des lecteurs qui cherchent à connaître le mécanisme des outils quotidiens d'Internet.
Le lecteur approfondira les concepts d'indexation, de compression, de recherche sur le Web, de classification et de catégorisation, et pourra prolonger cette étude avec les exercices corrigés proposés en fin de chapitre.
Ce livre s'adresse tant aux chercheurs et ingénieurs qui travaillent dans le domaine de l'accès à l'information et employés de PME qui utilisent en profondeur les outils du webmarketing, qu'aux étudiants de Licence, Master, doctorants ou en écoles d'ingénieurs, qui souhaitent un ouvrage de référence sur la recherche d'information." (4e de couverture)
Note de contenu :
PREFACE
LISTE DES ALGORITHMES
NOTATIONS
LISTE DES FIGURES
1. INTRODUCTION
1.1. Concepts étudiés dans ce livre
1.2. Organisation du livre
2. REPRESENTATION ET INDEXATION
2.1. Prétraitements linguistiques
--- 2.1.1. Segmentation
--- 2.1.2. Normalisation
--- 2.1.3. Filtrage par antidictionnaire
2.2. Les deux lois de base en recherche d'information
--- 2.2.1. Loi de Heaps
--- 2.2.2. Loi de Zipf
2.3. Représentation documentaire
--- 2.3.1. Modèle vectoriel
--- 2.3.2. Pondération des termes
2.4. Index inversé
--- 2.4.1. Indexation dans les collections statiques
--- 2.4.2. Indexation dans les collections dynamiques
3. RECHERCHE D'INFORMATION
3.1. Modèles de recherche
--- 3.1.1. Modèles booléens
--- 3.1.2. Modèles vectoriels
--- 3.1.3. Modèles probabilistes
--- 3.1.4. Une approches axiomatique de la RI
3.2. Expansion de requêtes
--- 3.2.1. La méthode "boucle de rétro
pertinence"
--- 3.2.2. La méthode "boucle de rétropertinence en aveugle"
3.3. Mesures d'évaluation
--- 3.3.1. Evaluation de résultats non ordonnées
--- 3.3.2. Evaluation de résultats ordonnées
3.4. Exercices
4. RECHERCHE SUR LE WEB
4.1. Architecture de la Toile
4.2. Trois inventions à la base du Web
--- 4.2.1. Langage HTML
--- 42.2. Protocole de transfert hypertexte et adresses Web
4.3. Collecte et indexation des pages sur la Toile
--- 4.3.1. Robot d'indexation
--- 4.3.2. Index distribué
4.4. Nouvelles stratégies de recherche
--- 4.4.1. Modèle d'apprentissage automatique pour la RI
--- 4.4.2. PageRank
4.5. Exercices
5. CATEGORISATION DE DOCUMENTS
5.1. Formalisme
5.2. Sélection de variables
--- 5.2.1. Le seuillage sur la mesure Document Frequancy (df)
--- 5.2.2. L'information mutuelle ponctuelle (IMP)
--- 5.2.3. L'information mutuelle (IM)
--- 5.2.4. La mesure X²
5.3. Modèles génératifs
--- 5.3.1. Modèle multivariés de Bernoulli
--- 5.3.2. Modèle multinomial
5.4. Modèles discriminants
--- 5.4.1. Modèle logistique
--- 5.4.2. Séparateur à vaste marge
5.5. Mesures d'évaluation
5.6. Exercices
6. PARTITIONNEMENT DE DOCUMENTS
6.1. Définitions
6.2. Les étapes du partitionnement
6.3. Principaux algorithmes de partitionnement
--- 6.3.1. Partitionnement à plat: méthodes de réallocation
--- 6.3.2. Partitionnement hiérarchique
6.4. Evaluation
6.5. Applications à l'accès à l'information
6.6. Exercices
7. RECHERCHE DE THEMES LATENTS
7.1. Analyse sémantique latente
--- 7.1.1. Décomposition en valeurs singulières
--- 7.1.2. L'analyse sémantique latente pour la RI
--- 7.3. Limitations
7.2. Analyse sémantique latente probabiliste
--- 7.2.1. Remarques
7.3. Le modèle LDA
7.4. Exercices
8. CONSIDERATIONS PRATIQUES
8.1. Logiciels libres pour la recherche d'information
--- 8.1.1. dpSearch
--- 8.1.2. Lucene/SolR
--- 8.1.3. MG
--- 8.1.4. Terrier
--- 8.1.5. Zettair
8.2. Logiciels libres pour la catégorisation et le partitionnement
8.3. Le passage à l'échelle ou le Big Date
--- 8.3.1. Traitement parallèle et distribué
--- 8.3.2. Traitement de flux de données
BIBLIOGRAPHIE
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20531 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 0261893 004C AMI Livre Bibliothèque IESSID Nouveautés Disponible Le big data / Pierre Delort
Titre : Le big data Type de document : texte imprimé Auteurs : Pierre Delort, Auteur Editeur : Paris [France] : Presses universitaires de France Année de publication : DL 2015 Collection : Que sais-je ? Sous-collection : Sciences num. 4027 Importance : 1 vol. (127 p.) Format : 18 cm ISBN/ISSN/EAN : 978-2-13-065211-3 Note générale : Bibliogr. p. 125-126. Notes bibliogr. en bas de page - La 4e de couv. porte en plus : "Ses origines, ses outils et méthodes, ses effets" Langues : Français (fre) Catégories : Changement organisationnel
Données massives
Données massives ** Gestion
Organisation de l'entrepriseIndex. décimale : 004C Informatique documentaire - Recherche de l'information Résumé :
"Notre époque produit quantité de données. Toutes ces données, utiles pour la conduite de machines, la surveillance d'ouvrages d'art ou pour notre vie sociale, économique, sentimentale... laissent des traces ou des scories. Ces traces maillent le monde et sont conservées de manière croissante.
Le Big Data (ou mégadonnées) y trouve des modèles pouvant améliorer les décisions ou opérations et transformer les firmes. C'est ainsi que nos recherches sur Google ou Wikipedia peuvent constituer des alertes avancées d'épidémies, les données d'exploitation de moteurs d'avion Rolls-Royce permettent de mieux les maintenir ou les concevoir, nos courses de taxi informent sur les endroits où les arrêter et les lieux où sortir, nos relations sur un réseau social informent sur la qualité de notre crédit... et que la publicité évolue vers l'avant commercial.
Cet ouvrage est une invitation à penser ce qu'une approche par les mégadonnées modifie dans la recherche, l'innovation, la vie des entreprises et dans notre vie quotidienne. Ni eldorado, ni miroir aux alouettes, le Big Data est loin de n'être qu'une mode." (4è de couv.)
Note de contenu :
I. Informatique en entreprise
II. Données
III. Big Data : concepts et définition
IV. Les technologies du Big Data
V. Les décisions dans la firme
VI. Transformations des entreprises
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20930 Le big data [texte imprimé] / Pierre Delort, Auteur . - Paris (Avenue Reille, 6, 75685, France) : Presses universitaires de France, DL 2015 . - 1 vol. (127 p.) ; 18 cm. - (Que sais-je ?. Sciences; 4027) .
ISBN : 978-2-13-065211-3
Bibliogr. p. 125-126. Notes bibliogr. en bas de page - La 4e de couv. porte en plus : "Ses origines, ses outils et méthodes, ses effets"
Langues : Français (fre)
Catégories : Changement organisationnel
Données massives
Données massives ** Gestion
Organisation de l'entrepriseIndex. décimale : 004C Informatique documentaire - Recherche de l'information Résumé :
"Notre époque produit quantité de données. Toutes ces données, utiles pour la conduite de machines, la surveillance d'ouvrages d'art ou pour notre vie sociale, économique, sentimentale... laissent des traces ou des scories. Ces traces maillent le monde et sont conservées de manière croissante.
Le Big Data (ou mégadonnées) y trouve des modèles pouvant améliorer les décisions ou opérations et transformer les firmes. C'est ainsi que nos recherches sur Google ou Wikipedia peuvent constituer des alertes avancées d'épidémies, les données d'exploitation de moteurs d'avion Rolls-Royce permettent de mieux les maintenir ou les concevoir, nos courses de taxi informent sur les endroits où les arrêter et les lieux où sortir, nos relations sur un réseau social informent sur la qualité de notre crédit... et que la publicité évolue vers l'avant commercial.
Cet ouvrage est une invitation à penser ce qu'une approche par les mégadonnées modifie dans la recherche, l'innovation, la vie des entreprises et dans notre vie quotidienne. Ni eldorado, ni miroir aux alouettes, le Big Data est loin de n'être qu'une mode." (4è de couv.)
Note de contenu :
I. Informatique en entreprise
II. Données
III. Big Data : concepts et définition
IV. Les technologies du Big Data
V. Les décisions dans la firme
VI. Transformations des entreprises
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20930 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 0265882 004C DEL B Livre Bibliothèque IESSID Livres Disponible Big, fast & opendata : décrire, décrypter et prédire le monde, l'avènement des données / Yannick Lejeune
Titre : Big, fast & opendata : décrire, décrypter et prédire le monde, l'avènement des données Type de document : texte imprimé Auteurs : Yannick Lejeune, Auteur Editeur : Limoges [France] : Fyp Année de publication : impr. 2014 Collection : Innovation Importance : 1 vol. (191 p.) Format : 21 cm ISBN/ISSN/EAN : 978-2-36405-121-8 Langues : Français (fre) Catégories : Bases de données ** Gestion
Données massivesIndex. décimale : 004C Informatique documentaire - Recherche de l'information Résumé :
"Le monde qui nous entoure est connecté et de cette connexion omniprésente naissent les données. Les data deviennent un acteur majeur pour la compréhension, l’anticipation et la résolution des grands problèmes économiques, politiques, sociaux, juridiques et scientifiques. Les données transforment également nos méthodes de travail, notre environnement culturel, la façon dont nous vivons au quotidien, allant même jusqu’à restructurer notre manière de penser.
Et à peine le big data occupe-t-il le devant de la scène technologique, que déjà surgit le phénomène fast data. Car au-delà du volume de données, ce qui devient décisif c’est la capacité de traiter à grande vitesse les données dans toute leur variété, de les transformer en connaissances en fournissant très rapidement la bonne information à la bonne personne au bon moment, voire de les utiliser pour prédire l’avenir. (...)
Cet ouvrage décrypte le nouvel écosystème de la data, la mutation des métiers actuels et ceux qui émergent. En cela, il prépare le lecteur à analyser, prédire et agir de manière adéquate dans tous les domaines transformés en profondeur par l’avènement des données : sécurité, marketing, santé, médecine préventive, transports, communication, logistique, jeu vidéo, enseignement, urbanisme, recherche scientifique, agriculture, environnement, etc." (4è de couv.)
Note de contenu :
PREFACE
INTRODUCTION
CHAPITRE 1 - L'HUMAIN ET SES DONNEES, LE "QUANTIFIED SELF"
1.1 La révolution des données
1.2. L'homme en data
1.3. Le soi quantifié
1.4. Les données pour améliorer la performance et plus encore
CHAPITRE 2 - L'INFORMATIQUE DES DONNEES ET LES MONDES NUMERIQUES
2.1. Enseigner les data
2.2. Traiter les données: quels outils et quelles solutions?
2.3. Le jeu vidéo et le digital entertainment
CHAPITRE 3 - SOCIETE ET GOUVERNANCE: LE CITOYEN ET LA CITE
3.1. Ouverture des connées et e-gouvernance
3.2. Cybersécurité et intelligence économique
3.3. La ville intelligente
3.4. Le cadre législatif et juridique
CHAPITRE 4 - LES ENTREPRISES ET LE BUSINESS DES DONNEES
4.1. L'écosystème digital
4.2. Valorisation et commercialisation des données
4.3. La marketing
4.4. Stratégie de l'entreprise et relation client
CHAPITRE 5 - LA SCIENCE A L'ERE DES MEFADONNEES
5.1. La recherche scientifique fondamentale
5.2. L'"open scienceé ou la "science ouverte"
CONCLUSION
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20708 Big, fast & opendata : décrire, décrypter et prédire le monde, l'avènement des données [texte imprimé] / Yannick Lejeune, Auteur . - Limoges (France) : Fyp, impr. 2014 . - 1 vol. (191 p.) ; 21 cm. - (Innovation) .
ISBN : 978-2-36405-121-8
Langues : Français (fre)
Catégories : Bases de données ** Gestion
Données massivesIndex. décimale : 004C Informatique documentaire - Recherche de l'information Résumé :
"Le monde qui nous entoure est connecté et de cette connexion omniprésente naissent les données. Les data deviennent un acteur majeur pour la compréhension, l’anticipation et la résolution des grands problèmes économiques, politiques, sociaux, juridiques et scientifiques. Les données transforment également nos méthodes de travail, notre environnement culturel, la façon dont nous vivons au quotidien, allant même jusqu’à restructurer notre manière de penser.
Et à peine le big data occupe-t-il le devant de la scène technologique, que déjà surgit le phénomène fast data. Car au-delà du volume de données, ce qui devient décisif c’est la capacité de traiter à grande vitesse les données dans toute leur variété, de les transformer en connaissances en fournissant très rapidement la bonne information à la bonne personne au bon moment, voire de les utiliser pour prédire l’avenir. (...)
Cet ouvrage décrypte le nouvel écosystème de la data, la mutation des métiers actuels et ceux qui émergent. En cela, il prépare le lecteur à analyser, prédire et agir de manière adéquate dans tous les domaines transformés en profondeur par l’avènement des données : sécurité, marketing, santé, médecine préventive, transports, communication, logistique, jeu vidéo, enseignement, urbanisme, recherche scientifique, agriculture, environnement, etc." (4è de couv.)
Note de contenu :
PREFACE
INTRODUCTION
CHAPITRE 1 - L'HUMAIN ET SES DONNEES, LE "QUANTIFIED SELF"
1.1 La révolution des données
1.2. L'homme en data
1.3. Le soi quantifié
1.4. Les données pour améliorer la performance et plus encore
CHAPITRE 2 - L'INFORMATIQUE DES DONNEES ET LES MONDES NUMERIQUES
2.1. Enseigner les data
2.2. Traiter les données: quels outils et quelles solutions?
2.3. Le jeu vidéo et le digital entertainment
CHAPITRE 3 - SOCIETE ET GOUVERNANCE: LE CITOYEN ET LA CITE
3.1. Ouverture des connées et e-gouvernance
3.2. Cybersécurité et intelligence économique
3.3. La ville intelligente
3.4. Le cadre législatif et juridique
CHAPITRE 4 - LES ENTREPRISES ET LE BUSINESS DES DONNEES
4.1. L'écosystème digital
4.2. Valorisation et commercialisation des données
4.3. La marketing
4.4. Stratégie de l'entreprise et relation client
CHAPITRE 5 - LA SCIENCE A L'ERE DES MEFADONNEES
5.1. La recherche scientifique fondamentale
5.2. L'"open scienceé ou la "science ouverte"
CONCLUSION
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=20708 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 0263875 004C LEJ B Livre Bibliothèque IESSID Livres Disponible Intelligence collective et archives numériques : vers des écosystèmes de connaissances / Samuel Szoniecky
Titre : Intelligence collective et archives numériques : vers des écosystèmes de connaissances Type de document : texte imprimé Auteurs : Samuel Szoniecky, Directeur de publication, rédacteur en chef ; Nasreddine Bouhaï, Directeur de publication, rédacteur en chef Editeur : London [Angleterre] : ISTE Editions Année de publication : Impr. 2017 Collection : Systèmes d'information, web et société Sous-collection : Outils et usages numériques num. 2 Importance : 1 vol. (238 p.) Présentation : ill. en noir et en coul., couv. ill. en coul. Format : 24 cm ISBN/ISSN/EAN : 978-1-78405-255-3 Note générale : Bibliogr. en fin de chapitres. - Notes bibliogr. en bas de pages. - Index. Langues : Français (fre) Catégories : Archivage électronique
Données massives
Gestion des connaissances
Stockage en ligne (informatique)
Web sémantiqueIndex. décimale : 004F Veille technologique - Gestion des connaissances Résumé :
"Cet ouvrage présente les points de vue de chercheurs dans différents domaines sur les archives numériques. Il analyse le développement de l’intelligence collective afin d’organiser et de communiquer au mieux les nouvelles masses d’information.
Les chantiers de numérisation des archives produisent aujourd’hui une masse énorme de documents numériques (Big Data). De par les démarches volontaristes des grandes institutions publiques gestionnaires de documents (bibliothèques, archives, administrations, etc.), ces données sont de plus en plus accessibles. Si les cadres techniques et juridiques tendent à se stabiliser, l’usage des données reste encore à inventer notamment pour les enrichir par un processus d’intelligence collective.
Intelligence collective et archives numériques a pour ambition de présenter et d’analyser des exemples concrets d’intelligence collective mis au service des archives numériques, que ce soit dans le domaine des humanités numériques, des archives audiovisuelles, de la préservation du patrimoine culturel, du crowdsourcing et de la valorisation des archives de la science." (4e de couv.)
Note de contenu :
CHAPITRE 1 _ DES ECOSYSTEMES D'INTELLIGENCE COLLECTIVE AU SERVICE DES ARCHIVES NUMERIQUES
1.1. Les archives numériques
1.2. L'intelligence collective
1.3. Les écosystèmes de connaissances
1.4. Exemples d'écosystèmes de connaissances
--- 1.4.1. Modélisation de l'interprétation des archives numériques
--- 1.4.2. Editer les archives via le web sémantique
--- 1.4.3. Une plateforme sémantique pour l'analyse de corpus audiovisuels
--- 1.4.4. Bibliothèques numériques et crowdsourcing: un état de l'art
--- 1.4.5. Conversation et valorisation du patrimoine culturel
--- 1.4.6. Modélisation des connaissances pour l'innovation
1.5. Solutions
1.6. Bibliographie
CHAPITRE 2 - OUTILS POUR UNE MODELISATION DE L'INTERPRETATION DES ARCHIVES NUMERIQUES
2.1. Des quelles archives parle-t-on? Définition, enjeux et méthodes: l'intelligence collective
--- 2.1.1. Des archives aux bases de données, évolution d'un concept et de ses fonctions
--- 2.1.2. L'exploitation des archives numériques en sciences humaines
--- 2.1.3. Les cas particuliers des outils de visualisation
2.2. Outils de visualisation d'archives numériques: enseignements de l'expérience Biolographes
--- 2.2.1. Des outils pour tester
--- 2.2.2. Des outils pour visualiser les réseaux: DBpedia, Palladio
--- 2.2.3. Des outils multi-usages (Keshif, Tableau)
2.3. Prototype pour la modélisation des réseaux d'influences
--- 2.3.1. Catégorisation des rapports
--- 23.2. Saisie assistée de réseaux d'influences
2.4. Limites et perspectives
--- 2.4.1. Conflits épistémologiques
--- 2.4.2. De l'expertise individuelle ) l'intelligence du groupe
2.5. Conclusion
2.6. Bibliographie
CHAPITRE 3 - DE L'ARCHIVE NUMERIQUE A LA RESSOURCE ENRICHIE VIA LE WEB SEMANTIQUE: PROCESSUS D'EDITORIALISATION D'UN PARTIMOINE CULTUREL
3.1. Influencer sur l'intelligibilité d'un document patrimonial
3.2. Mobiliser la sémantique différentielle
3.3. Appliquer un parcours interprétatif à l'archive
3.4. Bilan de l'étude sémiotique
3.5. Mobiliser le web des données dans l'approche d'éditorialisation
3.6. L'éditorialisation de l'archive dans l'architexte Famille™
3.7. Bilan de la recontextualisation de l'archive
3.8. Bibliographie
CHAPITRE 4 - SUTIDIO CAMPUS AAR, UNE PLATEFORME SEMANTIQUE POUR L'ANALYSE ET LA PUBLICATION DE COPRUS AUDIOVISUELS
4.1. Introduction
4.2. Contexte et enjeux
--- 4.2.1. Archivage et appropriation de données audiovisuelles
--- 4.2.2. Présentation générale de l'environnement Campus AAR
4.3. Edition de graphes de connaissances: l'exemple su Studio Campus AAR
--- 4.3.1. Contexte
--- 4.3.2. Représentation des restrictions OWL2
--- 4.3.3. Résolution des restrictions OWL2
--- 4.3.4. Relâchement de contraintes
--- 4.3.5. Classification d'individus
--- 4.3.6. Ouverture et interopérabilité avec le web de données
--- 4.3.7. Interfaces graphiques
4.4. Application à l'analyse de média
--- 4.4.1. Modèle de description audiovisuelle
--- 4.4.2. Référentiels et modèles de description
------ 4.4.2.1. Modularité des ontologies
------ 4.4.2.2. Utilisation de vocabulaires SKOS
--- 4.4.3. Patron de description
--- 4.4.4. Gestion des contextes
--- 4.4.5. Suggestion de propriété
--- 4.4.6. Suggestion de valeurs de propriété
--- 4.4.7. Ouverture sur le web des données
4.5. Application à la gestion des individus
--- 4.5.1. Description multi-ontologie
--- 4.5.2. Mise en facette
--- 4.5.3. Portée d'un individu
4.6. Application à la recherche d'information
--- 4.6.1. Recherche sémantique
--- 4.6.2. Transformation de graphes de requête en SPARQL
--- 4.6.3. Transformation d'axiomes OWL2 en SPARQL
--- 4.6.4. Interface
4.7. Application à la gestion de corpus
4.8. Application à la publication auteur
--- 4.8.1. Ontologie de publications
------ 4.8.1.1. L'ontologie de publication
------ 4.8.1.2. L'ontologie de rendu hypermédia
------ 4.8.1.3. La paramétrage de la publication
--- 4.8.2. Moteur de transformation
--- 4.8.3. Rendu final
--- 4.8.4. Ouverture sur le web de données
--- 4.8.5. Interface
4.9. Conclusion
4.10. Bibliographie
CHAPITRE 5 - BIBLIOTHEQUES NUMERIQUES ET CROWDSOURCING: UN ETAT DE L'ART
5.1. Introduction
5.2. Le concept de crowdsourcing en bibliothèques
--- 5.2.1. Définition de crowdsourcing
--- 5.2.2. Origines historique du crowdsourcing
--- 5.2.3. Origines conceptuelles du crowdsourcing
--- 5.2.4. Critiques du crowdsourcing. Vers une ubérisation des bibliothèque?
5.3. Taxonomie et panorama du crowdsourcing en bibliothèques
--- 5.3.1. Le crowdsourcing explicite
------ 5.3.1.1. Le crowdsourcing bénévole
------ 5.3.1.2. Le crowdsourcing rémunéré
--- 5.3.2. La gamification et le crowdsourcing implicite
------ 5.3.2.1. La gamification
------ 5.3.2.2. Le crowdsourcing implicite
--- 5.3.3. Le crowdfunding
------ 5.3.3.1. La numérisation à la demande
------ 5.3.3.2. L'impression à la demande et les bibliothèques
5.4. Analyses du crowdsourcing en bibliothèques du point de vue des sciences de l'information et de al communication
--- 5.4.1. Pourquoi les bibliothèques ont recours au crowdsourcing?
--- 5.4.2. Pourquoi les internautes contribuent-ils? Taxonomie des motivations des internautes
--- 5.4.3. Des récompenses symboliques aux rémunérations concrètes
--- 5.4.4. La communication pour recruter des contributeurs
--- 5.4.5. Le community management pour maintenir les contributeurs
--- 4.4.6. La qualité et la réintégration des données produites
--- 4.4.7. L'évaluation des projets de crowdsourcing
5.5. Conclusions sur l'intelligence collective et la sagesses des foules
5.6. Bibliographie
CHAPITE 6 - CONSERVATION ET VALORISATION DU PATRIMOINE CULTUREL DANS LE CONTEXTE DU WEB SEMANTIQUE
6.1. Introduction
6.2. Les ressources et les modèles de connaissances relatives au patrimoine culturel
--- 6.2.1. Normes de métadonnées
------ 6.2.1.1. Dublin Core
------ 6.2.1.2. LIDO
------ 6.2.1.3. MODS
------ 6.2.1.4. EAD
------ 6.2.1.5. EDM
--- 6.2.2. Vocabulaires contrôlés
--- 6.2.3. Les bases de données lexicales
--- 6.2.4. Les ontologies
6.3. Difficultés et solutions possibles
--- 6.3.1. L'acquisition de données
------ 6.3.1.1. L'acquisition de données provenant de sources différentes
--- 6.3.2. La modélisation de l'information
------ 6.3.2.1. Les termes du domaine
--- 6.3.3. L'usage
------ 6.3.3.1. Le niveau de connaissances de l'utilisateur sur le web sémantique
------ 6.3.3.2. Le niveau de connaissances préalables de l'utilisateur sur le domaine
------ 6.3.3.3. La nature de la terminologie qui sera utilisée dans le système
--- 6.3.4. L'interopérabilité
6.4. Conclusion
6.5. Bibliographie
CHAPITRE 7 - DU MANAGE%ENT DE LA CONNAISSANCE (KM) POUR L'INNOVATION: MODELISATION PAR L'APPROCHE DE VEILLE STRATEGIQUE EN SCIENCE DES MATEARIAUX
7.1. Introduction générale
7.2. Contexte de la recherche: Knowledge Management (KM) et processus d'innovation
--- 7.2.1. Institut Jean Lamour (IJL)
--- 7.2.2. Centre de compétences valorisation-innovation- transfert (ou CC-VIT)
7.3. Approche méthodologique
--- 7.3.1. Veille et capitalisation des connaissances pour l'innovation
------ 7.3.1.1. MASK
------ 7.3.1.2. La théorie C-K
--- 7.3.2. Veille stratégique et extraction de connaissances: vers une approche de type ontologie
------ 7.3.2.1. Stratégie d'analyse du corpus
------ 7.3.2.2. Identification d'une grammaire cognitive
--- 7.3.3. Constitution d'une hiérarchie de classes
7.4. Modélisation conceptuelle pour l'innovation: le transfert technologique
--- 7.4.1. Implémentations
--- 7.4.2. Spécificités du corpus
--- 7.4.3. Ingénierie TAL appliquée au corpus
--- 7.4.4. Des "poly fonctionnalités" favorisant la veille stratégique
7.5. Conclusion: principaux résultats et recommandations
7.6. Bibliographie
LISTE DES AUTEURS
INDEX
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=22086 Intelligence collective et archives numériques : vers des écosystèmes de connaissances [texte imprimé] / Samuel Szoniecky, Directeur de publication, rédacteur en chef ; Nasreddine Bouhaï, Directeur de publication, rédacteur en chef . - London (27-37 St George's Road, London SW19 4 EU, Angleterre) : ISTE Editions, Impr. 2017 . - 1 vol. (238 p.) : ill. en noir et en coul., couv. ill. en coul. ; 24 cm. - (Systèmes d'information, web et société. Outils et usages numériques; 2) .
ISBN : 978-1-78405-255-3
Bibliogr. en fin de chapitres. - Notes bibliogr. en bas de pages. - Index.
Langues : Français (fre)
Catégories : Archivage électronique
Données massives
Gestion des connaissances
Stockage en ligne (informatique)
Web sémantiqueIndex. décimale : 004F Veille technologique - Gestion des connaissances Résumé :
"Cet ouvrage présente les points de vue de chercheurs dans différents domaines sur les archives numériques. Il analyse le développement de l’intelligence collective afin d’organiser et de communiquer au mieux les nouvelles masses d’information.
Les chantiers de numérisation des archives produisent aujourd’hui une masse énorme de documents numériques (Big Data). De par les démarches volontaristes des grandes institutions publiques gestionnaires de documents (bibliothèques, archives, administrations, etc.), ces données sont de plus en plus accessibles. Si les cadres techniques et juridiques tendent à se stabiliser, l’usage des données reste encore à inventer notamment pour les enrichir par un processus d’intelligence collective.
Intelligence collective et archives numériques a pour ambition de présenter et d’analyser des exemples concrets d’intelligence collective mis au service des archives numériques, que ce soit dans le domaine des humanités numériques, des archives audiovisuelles, de la préservation du patrimoine culturel, du crowdsourcing et de la valorisation des archives de la science." (4e de couv.)
Note de contenu :
CHAPITRE 1 _ DES ECOSYSTEMES D'INTELLIGENCE COLLECTIVE AU SERVICE DES ARCHIVES NUMERIQUES
1.1. Les archives numériques
1.2. L'intelligence collective
1.3. Les écosystèmes de connaissances
1.4. Exemples d'écosystèmes de connaissances
--- 1.4.1. Modélisation de l'interprétation des archives numériques
--- 1.4.2. Editer les archives via le web sémantique
--- 1.4.3. Une plateforme sémantique pour l'analyse de corpus audiovisuels
--- 1.4.4. Bibliothèques numériques et crowdsourcing: un état de l'art
--- 1.4.5. Conversation et valorisation du patrimoine culturel
--- 1.4.6. Modélisation des connaissances pour l'innovation
1.5. Solutions
1.6. Bibliographie
CHAPITRE 2 - OUTILS POUR UNE MODELISATION DE L'INTERPRETATION DES ARCHIVES NUMERIQUES
2.1. Des quelles archives parle-t-on? Définition, enjeux et méthodes: l'intelligence collective
--- 2.1.1. Des archives aux bases de données, évolution d'un concept et de ses fonctions
--- 2.1.2. L'exploitation des archives numériques en sciences humaines
--- 2.1.3. Les cas particuliers des outils de visualisation
2.2. Outils de visualisation d'archives numériques: enseignements de l'expérience Biolographes
--- 2.2.1. Des outils pour tester
--- 2.2.2. Des outils pour visualiser les réseaux: DBpedia, Palladio
--- 2.2.3. Des outils multi-usages (Keshif, Tableau)
2.3. Prototype pour la modélisation des réseaux d'influences
--- 2.3.1. Catégorisation des rapports
--- 23.2. Saisie assistée de réseaux d'influences
2.4. Limites et perspectives
--- 2.4.1. Conflits épistémologiques
--- 2.4.2. De l'expertise individuelle ) l'intelligence du groupe
2.5. Conclusion
2.6. Bibliographie
CHAPITRE 3 - DE L'ARCHIVE NUMERIQUE A LA RESSOURCE ENRICHIE VIA LE WEB SEMANTIQUE: PROCESSUS D'EDITORIALISATION D'UN PARTIMOINE CULTUREL
3.1. Influencer sur l'intelligibilité d'un document patrimonial
3.2. Mobiliser la sémantique différentielle
3.3. Appliquer un parcours interprétatif à l'archive
3.4. Bilan de l'étude sémiotique
3.5. Mobiliser le web des données dans l'approche d'éditorialisation
3.6. L'éditorialisation de l'archive dans l'architexte Famille™
3.7. Bilan de la recontextualisation de l'archive
3.8. Bibliographie
CHAPITRE 4 - SUTIDIO CAMPUS AAR, UNE PLATEFORME SEMANTIQUE POUR L'ANALYSE ET LA PUBLICATION DE COPRUS AUDIOVISUELS
4.1. Introduction
4.2. Contexte et enjeux
--- 4.2.1. Archivage et appropriation de données audiovisuelles
--- 4.2.2. Présentation générale de l'environnement Campus AAR
4.3. Edition de graphes de connaissances: l'exemple su Studio Campus AAR
--- 4.3.1. Contexte
--- 4.3.2. Représentation des restrictions OWL2
--- 4.3.3. Résolution des restrictions OWL2
--- 4.3.4. Relâchement de contraintes
--- 4.3.5. Classification d'individus
--- 4.3.6. Ouverture et interopérabilité avec le web de données
--- 4.3.7. Interfaces graphiques
4.4. Application à l'analyse de média
--- 4.4.1. Modèle de description audiovisuelle
--- 4.4.2. Référentiels et modèles de description
------ 4.4.2.1. Modularité des ontologies
------ 4.4.2.2. Utilisation de vocabulaires SKOS
--- 4.4.3. Patron de description
--- 4.4.4. Gestion des contextes
--- 4.4.5. Suggestion de propriété
--- 4.4.6. Suggestion de valeurs de propriété
--- 4.4.7. Ouverture sur le web des données
4.5. Application à la gestion des individus
--- 4.5.1. Description multi-ontologie
--- 4.5.2. Mise en facette
--- 4.5.3. Portée d'un individu
4.6. Application à la recherche d'information
--- 4.6.1. Recherche sémantique
--- 4.6.2. Transformation de graphes de requête en SPARQL
--- 4.6.3. Transformation d'axiomes OWL2 en SPARQL
--- 4.6.4. Interface
4.7. Application à la gestion de corpus
4.8. Application à la publication auteur
--- 4.8.1. Ontologie de publications
------ 4.8.1.1. L'ontologie de publication
------ 4.8.1.2. L'ontologie de rendu hypermédia
------ 4.8.1.3. La paramétrage de la publication
--- 4.8.2. Moteur de transformation
--- 4.8.3. Rendu final
--- 4.8.4. Ouverture sur le web de données
--- 4.8.5. Interface
4.9. Conclusion
4.10. Bibliographie
CHAPITRE 5 - BIBLIOTHEQUES NUMERIQUES ET CROWDSOURCING: UN ETAT DE L'ART
5.1. Introduction
5.2. Le concept de crowdsourcing en bibliothèques
--- 5.2.1. Définition de crowdsourcing
--- 5.2.2. Origines historique du crowdsourcing
--- 5.2.3. Origines conceptuelles du crowdsourcing
--- 5.2.4. Critiques du crowdsourcing. Vers une ubérisation des bibliothèque?
5.3. Taxonomie et panorama du crowdsourcing en bibliothèques
--- 5.3.1. Le crowdsourcing explicite
------ 5.3.1.1. Le crowdsourcing bénévole
------ 5.3.1.2. Le crowdsourcing rémunéré
--- 5.3.2. La gamification et le crowdsourcing implicite
------ 5.3.2.1. La gamification
------ 5.3.2.2. Le crowdsourcing implicite
--- 5.3.3. Le crowdfunding
------ 5.3.3.1. La numérisation à la demande
------ 5.3.3.2. L'impression à la demande et les bibliothèques
5.4. Analyses du crowdsourcing en bibliothèques du point de vue des sciences de l'information et de al communication
--- 5.4.1. Pourquoi les bibliothèques ont recours au crowdsourcing?
--- 5.4.2. Pourquoi les internautes contribuent-ils? Taxonomie des motivations des internautes
--- 5.4.3. Des récompenses symboliques aux rémunérations concrètes
--- 5.4.4. La communication pour recruter des contributeurs
--- 5.4.5. Le community management pour maintenir les contributeurs
--- 4.4.6. La qualité et la réintégration des données produites
--- 4.4.7. L'évaluation des projets de crowdsourcing
5.5. Conclusions sur l'intelligence collective et la sagesses des foules
5.6. Bibliographie
CHAPITE 6 - CONSERVATION ET VALORISATION DU PATRIMOINE CULTUREL DANS LE CONTEXTE DU WEB SEMANTIQUE
6.1. Introduction
6.2. Les ressources et les modèles de connaissances relatives au patrimoine culturel
--- 6.2.1. Normes de métadonnées
------ 6.2.1.1. Dublin Core
------ 6.2.1.2. LIDO
------ 6.2.1.3. MODS
------ 6.2.1.4. EAD
------ 6.2.1.5. EDM
--- 6.2.2. Vocabulaires contrôlés
--- 6.2.3. Les bases de données lexicales
--- 6.2.4. Les ontologies
6.3. Difficultés et solutions possibles
--- 6.3.1. L'acquisition de données
------ 6.3.1.1. L'acquisition de données provenant de sources différentes
--- 6.3.2. La modélisation de l'information
------ 6.3.2.1. Les termes du domaine
--- 6.3.3. L'usage
------ 6.3.3.1. Le niveau de connaissances de l'utilisateur sur le web sémantique
------ 6.3.3.2. Le niveau de connaissances préalables de l'utilisateur sur le domaine
------ 6.3.3.3. La nature de la terminologie qui sera utilisée dans le système
--- 6.3.4. L'interopérabilité
6.4. Conclusion
6.5. Bibliographie
CHAPITRE 7 - DU MANAGE%ENT DE LA CONNAISSANCE (KM) POUR L'INNOVATION: MODELISATION PAR L'APPROCHE DE VEILLE STRATEGIQUE EN SCIENCE DES MATEARIAUX
7.1. Introduction générale
7.2. Contexte de la recherche: Knowledge Management (KM) et processus d'innovation
--- 7.2.1. Institut Jean Lamour (IJL)
--- 7.2.2. Centre de compétences valorisation-innovation- transfert (ou CC-VIT)
7.3. Approche méthodologique
--- 7.3.1. Veille et capitalisation des connaissances pour l'innovation
------ 7.3.1.1. MASK
------ 7.3.1.2. La théorie C-K
--- 7.3.2. Veille stratégique et extraction de connaissances: vers une approche de type ontologie
------ 7.3.2.1. Stratégie d'analyse du corpus
------ 7.3.2.2. Identification d'une grammaire cognitive
--- 7.3.3. Constitution d'une hiérarchie de classes
7.4. Modélisation conceptuelle pour l'innovation: le transfert technologique
--- 7.4.1. Implémentations
--- 7.4.2. Spécificités du corpus
--- 7.4.3. Ingénierie TAL appliquée au corpus
--- 7.4.4. Des "poly fonctionnalités" favorisant la veille stratégique
7.5. Conclusion: principaux résultats et recommandations
7.6. Bibliographie
LISTE DES AUTEURS
INDEX
Permalink : http://catalogue.iessid.be/index.php?lvl=notice_display&id=22086 Réservation
Réserver ce document
Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité 0281528 004F SZO I Livre Bibliothèque IESSID Livres Disponible