Recherche

Big Data et Machine Learning. Les concepts et les outils de la data science, 3e édition

Extraits

ActuaLitté

Informatique

Big Data et Machine Learning. Les concepts et les outils de la data science, 3e édition

Cet ouvrage s'adresse à tous ceux qui cherchent à tirer parti de l'énorme potentiel des technologies Big Data, qu'ils soient data scientists, DSI, chefs de projets ou spécialistes métier. Le Big Data s'est imposé comme une innovation majeure pour toutes les entreprises qui cherchent à construire un avantage concurrentiel de l'exploitation de leurs données clients, fournisseurs, produits, processus, etc. Il a en outre permis l'émergence des techniques d'apprentissage automatique (Machine Learning, Deep Learning...) qui ont relancé le domaine de l'intelligence artificielle. Mais quelle solution technique choisir ? Quelles compétences métier développer au sein de la DSI ? Ce livre est un guide pour comprendre les enjeux d'un projet Big Data, en appréhender les concepts sous-jacents et acquérir les compétences nécessaires à la mise en place d'une architecture d'entreprise adaptée. Il combine la présentation : - de notions théoriques (traitement statistique des données, calcul distribué...) ; - des outils les plus répandus ; - d'exemples d'applications, notamment en NLP (Natural Language Processing) ; - d'une organisation typique d'un projet de data science.

08/2019

ActuaLitté

Informatique

Big Data, Machine Learning et apprentissage profond

Cet ouvrage montre comment appliquer les méthodes de machine learning aux Big Data, et comment appliquer les méthodes plus spécifiques de deep learning aux problèmes plus complexes relevant de l'intelligence artificielle, tels que la reconnaissance d'image et le traitement du langage naturel.

04/2019

ActuaLitté

Sports

Big Data Foot. Comment les datas révolutionnent le football ?

Des expected goals au Packing, en passant par la dangerousity et le ghosting, un nombre spectaculaire de statistiques, d'indices, de modèles complexes sont récemment apparus dans le football. Pourquoi pouvait-on prévoir l'éclosion de Sadio Mané dès son transfert du RB Salzbourg à Southampton ? Pourquoi Arsenal et Naples auraient dû priver respectivement Leicester et la Juventus de leur titre de champions en 2016 ? Quels sont les secrets offensif et défensif des équipes entraînées par Lucien Favre ? En quoi la paire Pogba-Kanté était-elle si complémentaire lors de la Coupe du monde 2018 ? Dans cet ouvrage passionnant, Christoph Biermann montre, à partir d'exemples récents piochés dans les plus grands championnats européens, l'influence croissante du big data appliqué au football.

09/2019

ActuaLitté

Gestion

La boîte à outils de la stratégie Big Data

Quels sont les enjeux stratégiques et techniques du big data ? Quels sont les nouveaux métiers au sein de l'entreprise ? Comment gérer des équipes de manière agile et mener des projets big data ? Quelles technologies et infrastructures choisir pour développer l'usage du big data dans les entreprises ? Comment appliquer les résultats des modélisations ? Découvrez 65 outils et méthodes indispensables pour intégrer la stratégie big data au sein de votre entreprise. Chaque outil est traité de façon visuelle et structurée sur 2 ou 4 pages avec des schémas de synthèse, les objectifs et le contexte d'utilisation, des conseils méthodologiques, ainsi que des mises en situation concrètes.

09/2018

ActuaLitté

Informatique

Big Data & Streaming. Le traitement streaming & temps réel des données en Big Data

Le Big Data est désormais bien établi ! Il a atteint son paroxysme ces dernières années avec les objets connectés, l'intégration des capteurs dans les objets de la vie courante (voiture, réfrigérateur, télévision, etc.). Ces objets produisent des données en streaming. Beaucoup de cas d'usage et de modèles économique s'appuient aujourd'hui sur des données générées en streaming. Cet ouvrage est un manuel didactique qui a pour but de vous aider à développer les compétences de base nécessaires pour valoriser les don- nées produites en streaming. Que vous soyez freelance, consultant, Data Scientist, Architecte, Développeur ou Manager, cet ouvrage vous aidera à - Comprendre les concepts et notions essentiels pour aborder avec aisance la gestion des données streaming : - Appréhender et mettre en oeuvre les architectures nécessaires pour ingérer efficacement les données générées en streaming, notamment le Data Lake, les bus d'événements, les architectures Lambda, les architectures kappa, et les architectures hybrides ; Monter en compétence sur les technologies de l'écosystème Hadoop dédiées à l'ingestion et au traitement des données produites en streaming, notamment Apache Kafka, Spark Streaming, Flume, Apache Samza, Apache Storm et S4. Pour faciliter l'atteinte de ces trois objectifs, chaque chapitre s'achève par un rappel des points clés et un guide d'étude.

07/2019

ActuaLitté

Histoire et Philosophiesophie

La recherche scientifique à l'ère des Big Data. Cinq façons dont les Big Data nuisent à la science et comment la sauver

Que sont les Big Data ? Quel est leur fiabilité ? Quels sont les problèmes que ces données — massivement utilisées dans différents domaines de recherche — posent lorsqu'elles sont anciennes, douteuses, partielles, malhonnêtes ou "sensibles" ? Quel est l'effet sur le monde scientifique du traitement de plus en plus rapide des Big Data par l'intelligence artificielle, et qu'est-ce que cela signifie pour notre société ? Aujourd'hui plus que jamais ces questions sont au coeur d'un débat à l'échelle mondiale. Cet ouvrage sérieux, nécessaire et engagé prône une recherche moins rapide mais plus fiable, où les temps de production, de communication et d'analyse des données massives sont ralentis, en faveur d'une science participative et responsable. Un plaidoyer pour le retour de l'éthique dans la recherche scientifique, avec des principes-guide pour faciliter la transformation des Big Data en connaissances fiables.

04/2019

ActuaLitté

Programmation

Python pour le data scientist. Des bases du langage au machine learning, 3e édition

Si vous vous intéressez au traitement des données avec le langage Python, cet ouvrage s'adresse à vous. Que vous soyez débutant en Python ou que vous ayez une expérience significative, il vous apportera les clés pour utiliser ce langage en data science. Ce livre répond à de nombreuses questions sur Python : - Comment utiliser Python en data science ? - Comment coder en Python ? - Comment préparer des données avec Python ? - Comment créer des visualisations attractives avec Python ? - Comment appliquer des modèles de machine learning et de deep learning avec Python ? - Comment passer aux environnements big data ? Pour mettre en place vos traitements, vous apprendrez à tirer parti des multiples outils Python tels que Anaconda, Jupyter, NumPy, Pandas, Matplotlib, Seaborn, Bokeh, Scikit-Learn, TensorFlow, PySpark... Cette troisième édition, entièrement refondue et augmentée, est enrichie des mises à jour de code liées aux évolutions de Python et des packages de data science. L'ensemble du code compris dans cet ouvrage est disponible sous la forme de notebooks Jupyter dans le repository public de l'auteur : https : //github. com/emjako/pythondatascientist

03/2024

ActuaLitté

Economie (essai)

Big Data et plateformes. La nouvelle économie des données

Du big data aux plateformes, comment les données bouleversent les business models ? Un éclairage essentiel et inédit sur le nouveau capitalisme des données et ses enjeux qu'ils soient techniques, économiques, politiques et sociétaux. Quelles sont les raisons d'une telle montée en puissance des data et comment sont-elles créatrices de valeur en tant que matière première, levier et gain d'opportunité, actif stratégique. Le livre est enrichi de 20 études de cas et 10 cas complémentaires en ligne.

10/2022

ActuaLitté

Programmation

Python pour le data scientist. Des bases du langage au machine learning, 2e édition

Python est devenu en quelques années un langage majeur dans l'univers des applications centrées sur le traitement des données, et plus particulièrement des gros volumes de données (big data). Cet ouvrage servira de guide à tous ceux qui s'intéressent à l'utilisation de Python pour le travail sur les données et l'automatisation de certaines tâches (data science). Il met l'accent sur la préparation et la mise en forme des données qui sont essentielles dans la qualité du résultat et qui constituent aujourd'hui une part importante du travail du data scientist. Si vous vous intéressez au traitement des données avec le langage Python, cet ouvrage s'adresse à vous. Que vous soyez débutant en Python ou que vous ayez une expérience significative, il vous apportera les clés pour utiliser ce langage en data science. Ce livre répond à de nombreuses questions sur Python : Comment utiliser Python en data science ? Comment coder en Python ? Comment préparer des données avec Python ? Comment créer des visualisations attractives avec Python ? Comment appliquer des modèles de machine learning et de deep learning avec Python ? Comment passer aux environnements big data ? Vous apprendrez à tirer parti des multiples outils Python tels que Anaconda, Jupyter, NumPy, Pandas, Matplotlib, Seaborn, Bokeh, Scikit-Learn, TensorFlow, PySpark... pour mettre en place vos traitements. Cette deuxième édition est complétée et enrichie par des mises à jour de code liées aux évolutions de Python et des packages de data science. Des données plus récentes sont aussi utilisées. Les + en ligne : l'ensemble du code compris dans cet ouvrage est disponible sous la forme de notebooks Jupyter dans le repository public de l'auteur : github.com/emjako/pythondatascientist.

03/2021

ActuaLitté

Sociologie

Ainsi parlait le Big data

Le Big data sait tout de vous, mais que savez-vous de Big data ? L'" algorithmisation du monde " est en marche. Si l'on y réfléchit bien, l'idée d'organiser l'information est le principe même d'un moteur de recherche comme Google. Le Big data va façonner le siècle, c'est un nouvel instrument de pouvoir, et il est urgent de mettre en lumière les méthodes des entreprises qui influencent notre mode de vie. Dans la dystopie Lovestar, Andri Snaer Magnason se demande quelle part de liberté il reste à l'homme quand la science décide pour le bonheur de tous... Un monde où le meilleur ami qui vous conseille un livre est peut-être tout simplement payé pour cela sans que personne ne s'en doute. Un monde où les mégadonnées décident de tout, où des algorithmes ont une visée politique (cf. affaire Cambridge Analytica). Grâce au profilage réalisé par les algorithmes, le temps d'attention des consommateurs est en passe de devenir la [seule ? ] référence de la valeur des services. " Si j'avais demandé aux gens ce qu'ils voulaient, ils auraient répondu des chevaux plus rapides ", écrit Henry Ford. Et si le Big data ne constituait en définitive qu'un terrible aveu de faiblesse et d'impuissance générale, intégrant une arme de destruction massive à l'intérieur ?

10/2018

ActuaLitté

Programmation

Python pour la data science

Le best-seller O'Reilly sur la data science avec Python enfin traduit en Francais ? Pour de nombreux chercheurs, Python est un outil essentiel en raison de ses bibliothèques pour stocker, manipuler et obtenir un aperçu des données. Ce livre décrit toutes les ressources dont vous pouvez disposer pour mettre en oeuvre vos applications : IPython, NumPy, Pandas, Matplotlib, Scikit-Learn et d'autres outils associés. Les scientifiques en activité et les utilisateurs de données familiarisés avec la lecture et l'écriture de code Python trouveront avec cette référence complète l'outil idéal pour s'attaquer aux problèmes quotidiens : manipuler, transformer et nettoyer les données ; visualiser différents types de données ; utiliser les données pour créer des modèles statistiques ou d'apprentissage automatique. Ce livre est tout simplement la référence incontournable pour le calcul scientifique en Python. Vous apprendrez à utiliser : IPython et Jupyter : fournissent des environnements de calcul pour les data scientists utilisant Python NumPy : inclut le ndarray pour un stockage et une manipulation efficaces de tableaux de données denses en Python Pandas : comprend le DataFrame pour un stockage et une manipulation efficaces des données étiquetées / en colonnes en Python Matplotlib : inclut des fonctionnalités pour une gamme flexible de visualisations de données en Python Scikit-Learn : pour des implémentations Python efficaces et propres des algorithmes d'apprentissage automatique les plus importants et les plus établis

04/2022

ActuaLitté

Informatique

L’économie de partage et le Big Data analytics

Les différentes facettes de l'économie de partage offrent de nombreuses opportunités aux entreprises, en particulier celles qui se distinguent par leurs idées créatives et leurs capacités à connecter facilement les acheteurs et les vendeurs de biens et services via des plateformes numériques. A l'origine de la croissance de cette économie, les technologies numériques avancées génèrent des milliards d'octets de données constituant ce qu'on appelle le Big Data. Cet ouvrage met en évidence le rôle facilitateur du Big Data analytics, afin d'expliquer pourquoi et comment les algorithmes d'analyse de données peuvent être intégrés opérationnellement pour extraire de la valeur et améliorer les pratiques de l'économie de partage. Il examine les raisons pour lesquelles ces nouvelles techniques sont nécessaires aux entreprises de cette économie et propose une série d'applications pratiques illustrant l'utilisation des données dans l'écosystème de partage.

07/2019

ActuaLitté

Informatique

Python pour la data science pour les nuls

Découvrez Python le langage de prédilection de la science des données La science des données ou data science consiste à extraire des connaissance dans un flot de données. Elle utilise des techniques et des théories tirées de domaines comme les mathématiques et la statistique. Les méthodes qui s'adaptent aux big data sont particulièrement intéressantes dans la science des données. Ce livre est destiné à tous ceux qui travaillent dans le domaine de l'analyse de données et montre comment mettre en oeuvre le langage Python pour dans ce domaine et uassi celui de la statistique. Il traite également de Google Colab, un outil qui permet d'cire du code Python dans le cloud. Au programme : Probabilités Distributions aléatoires Tests d'hypothèses Regressions Modèles de prédiction

11/2019

ActuaLitté

Actualité médiatique internati

Petit dico critique du Big Data

Ce lexique met les mots du big data à la portée de tous, avec une approche critique, historique et sociologique. Il permet une compréhension des enjeux du big data, fournit des exemples concrets et une analyse critique des utilisations pour tous les domaines (assurances, élections, réseaux sociaux, économie, information et désinformation, santé, gouvernance, ville intelligente, surveillance, etc.) L'auteure et tous les intervenants ont une expertise largement reconnue. Ils travaillent sur l'ensemble du territoire : Angers, Bordeaux, Compiègne, Lille, Lyon, Lille, Montpelier, Nantes, Nancy, Nice, Paris, Rennes, Toulouse, Rouen. C'est le premier ouvrage qui propose une bibliographique complète sur le big data et tous ses usages. Destiné à tous ceux qui veulent comprendre le big data, ses usages, ses enjeux, ses critiques, de manière synthétique et pratique. Préface de Dominique Cardon, auteur de nombreux ouvrages dont A quoi rêvent les algorithmes, Seuil, 2015.

05/2023

ActuaLitté

Football

Lens Data Story

Cet ouvrage revisite l'histoire du RC Lens à travers un regard inédit. Les figures de style et prouesses rhétoriques laissent place à des chiffres, des images et des graphiques. De Maryan Wisniewski à Raphaël Varane en passant par Daniel Lelercq, du glorieux passé au présent, plongez dans l'histoire passionnante d'un club passionnant !

10/2021

ActuaLitté

Sociologie

Anatomie sociale de la France. Ce que les big data disent de nous

Les statistiques isolent les individus de leur milieu pour les transformer en des sortes de Robinson affublés de diverses caractéristiques personnelles, leur âge, leur profession, leur sexe, leur éducation, leur nationalité, etc. Pire, l'individu est débité en tranches. Tantôt il est ouvrier qu'on compare aux autres professions, tantôt, âgé de 40 ans, il est comparé aux autres classes d'âge, tantôt il est mâle, immigré, bachelier, etc. , mais jamais considéré comme un tout. Pour comprendre le comportement des Français, cet ouvrage a la double ambition de recoller ces morceaux d'individu en croisant les différentes caractéristiques puis de réinsérer l'individu dans son proche milieu, son couple éventuel, son ménage, sa parentèle, son lieu de résidence. Cela est réalisable grâce aux données du recensement qui décrivent la composition des ménages et des logements, pour plus de 20 millions de personnes. Grâce aussi à une cartographie précise, qui permet de déterminer la variabilité locale et régionale des comportements sociaux, économiques et politiques. L'ouvrage progresse par étapes en élargissant progressivement le cercle des proches, à commencer par le couple : qui vit avec qui en termes de profession, de diplôme, d'origine, de chômage... Par exemple, on constate que la conjointe d'un ouvrier n'est une ouvrière que dans 13 % des cas, mais une employée dans 50 % des cas et pour le reste appartient à une profession intermédiaire (technicienne, infirmière, assistante sociale par exemple). La notion de " ménage ouvrier " est dès lors largement vidée de sa signification. Puis on passe à la famille et au ménage (nombre des enfants, fécondité, familles monoparentales, isolés, etc.), au cercle de la parenté et enfin du voisinage. Sans aller jusqu'à l'adage " Dis-moi qui tu fréquentes et je te dirai qui tu es ", cette enquête exceptionnelle, qui croise des millions de données, montre que l'influence du milieu proche compte au moins autant que les caractéristiques de l'individu pour comprendre son comportement. Hervé Le Bras brosse un portrait des Français sous un jour absolument neuf.

03/2016

ActuaLitté

Communication - Médias

Les data contre la liberté

L'ouvrage s'interroge sur la possibilité d'un nouveau despotisme lié à la dépossession et au rétrécissement des options personnelles résultant du microciblage commercial par des outils numériques, à la dictature des prédictions qui commandent les décisions économiques et sociales, et à l'ubiquité de la surveillance politique et policière. Il décrit une société dans laquelle la sollicitude publique et les sollicitations privées en vue d'influer sur les désirs et les craintes ont pris le pas sur l'ancienne discipline autoritaire des corps. Un maternalisme politique diffus, vaguement inspiré de la philosophie du care, tend ainsi à se susbtituer à la promotion des libertés et des droits démocratiques. L'Intelligence Artificielle (IA) connexionniste, bien que mathématiquement très sophistiquée, qui est l'instrument privilégié de cette mutation, nuit directement à l'exercice de la réflexion humaine chez les prestataires comme chez les usagers, et à une liberté appréciative privilégiant chez chacun l'autodétermination des options.

04/2022

ActuaLitté

Informatique

La donnée n'est pas donnée. Stratégie & Big Data

La donnée est au coeur de la révolution cyber : tous nos outils quotidiens la brassent sans relâche au point qu'elle suscite un nouvel intérêt et qu'elle est à la pointe du débat scientifique : propriété des données, usage des données, localisation des données sont des sujets au goût du jour. Certains estiment même qu'à la guerre de l'information va succéder la guerre des données. Or ces sujets ne peuvent être débattus sereinement que si, au préalable, on a pris la peine de définir ce que le terme recouvre. Cet ouvrage répond à cette question, s'interrogeant sur le sens de la donnée selon les disciplines (économie, informatique, philosophie), puis sur le rôle de la donnée dans l'espace numérique. Il s'attache ensuite à décrire les différentes stratégies de la donnée, que ce soit dans le secteur privé ou dans le secteur public. Il est constitué des actes d'un colloque organisé à l'École Militaire en mars 2015, augmentés de quelques participations originales.

06/2016

ActuaLitté

Programmation

Data Science avec Python. Avec Jupyter et PyCharm

Ce livre est destiné aux personnes souhaitant avoir une première immersion dans le domaine de l'analyse de données avec le langage de programmation Python et les librairies dédiées à l'analyse de données que sont NumPy, Pandas, Matplotlib et Seaborn. Dans ce livre, nous verrons principalement comment explorer, manipuler et visualiser des données structurées, c'est-à-dire des tableaux contenant des lignes et des colonnes. La première partie aborde l'utilisation de la librairie NumPy qui est une librairie Python dédiée au calcul scientifique fournissant des fonctions très performantes de calcul, mais aussi des structures de données spécialisées et remarquablement performantes. La seconde partie aborde l'utilisation de la librairie Pandas qui est une librairie Python dédiée à la Data Science. Il s'agit de la librairie Python la plus populaire et la plus performante pour faire de l'analyse de données. Cette librairie Pandas amène avec elle deux nouvelles structures essentielles pour l'analyse de données qui sont les structures Series et DataFrame. La troisième partie aborde l'utilisation de la librairie Matplotlib qui est une librairie graphique très connue en Python car elle est puissante, très simple à prendre en main et chaque élément de la figure peut être configuré finement via un grand nombre de paramètres disponibles. La quatrième partie aborde l'utilisation de la librairie Seaborn qui est la librairie la plus populaire pour la visualisation de graphique. En réalité, cette librairie s'appuie sur Matplotlib et elle apporte des fonctions supplémentaires permettant de générer des graphiques plus travaillés, aux allures plus modernes, et ce de manière très simple. La cinquième partie aborde la création d'une application autonome pour visualiser des graphiques élaborés avec les librairies Matplotlib et Seaborn. Nous y verrons notamment comment utiliser le composant FigureCanvasQTAgg pour visualiser des graphiques aux allures modernes dans un projet PyCharm avec Python et la librairie des contrôles PyQt5.

03/2022

ActuaLitté

Gestion

Big Data, Smart Data, Stupid Data... Comment (vraiment) valoriser vos données. Petit manuel à l'usage de ceux qui veulent accélerer et réussir

Demain, tout, absolument tout, produira de la data. Les entreprises qui sauront s'en servir réussiront. Les autres disparaîtront. Vous souhaitez décoller et réussir ? Ce livre est fait pour vous ! Pratique et piquant, il vous guidera étape par étape. Pour réussir, il vous faut tout bousculer : vos procédures, vos talents, votre culture... jusqu'à votre proposition de valeur ! Stratégies, exécution, casting, contraintes règlementaires... ce petit manuel traitera de tout, sans tabou, pour vous permettre d'aller droit au but ! N'attendez plus, lancez-vous ! - Le phénomène " Big Data " fait couler beaucoup d'encre, mais engendre, à date, peu de gains business. Pourquoi ? - Quels sont les ingrédients pour réussir ? De la stratégie (" faire mieux, ou faire autrement ? "), à l'exécution (" priorisation des cas d'usage "), en passant par la culture et l'organisation (" profils, positionnements, valeurs "). - Réglementation européenne sur la data (GDPR, en application le mai 2018). Qu'est-ce qu'elle comporte (ex : article 20 sur la portabilité des données ") ? Comment réagir, et la tourner en opportunité ?

01/2018

ActuaLitté

Droit informatique

Open data et collectivités territoriales. Réussir sa démarche data

Avec la donnée numérique, les relations entre acteurs publics, acteurs privés et usagers évoluent radicalement. Dans cette nouvelle "économie de l'immatériel", les instances publiques européennes et françaises se sont engagées dans une politique de mise à disposition et de réutilisation libre et facile des données publiques. La loi NOTRe et la loi pour une République numérique ont redistribué quelques cartes et placé entre les mains des collectivités quelques atouts qui, selon la façon dont elles vont en disposer, peuvent être considérés ou non comme contraignants. Le récent rapport du député Eric Bothorel nous rappelle que ce sujet reste toujours d'actualité. Il mérite de connaître un deuxième âge : celui du passage à l'échelle ! Il est certain que l'enjeu d'innovation par la donnée a d'ores et déjà généré des déséquilibres économiques, symbolisés par le Big Tech, et démontré, par des retours d'expérience bien réels, que l'exploitation sans éthique – ni qualité – de la donnée pouvait aboutir aux pires effets, allant jusqu'à la privation des libertés. Il faut donc arriver à défendre une vision humaniste de cette nouvelle ère numérique, rendant compatible le progrès technologique et les progrès des démocraties. Et c'est bien dans cet idéal qu'est pensée l'open data.

11/2021

ActuaLitté

Histoire du sport

Data et sport, la revolution. Comment la data révolutionne le sport

En plein coeur de la Coupe du monde de rugby 2023, et à l'approche des Jeux olympiques de Paris, Yannick Nyanga et Aurélie Jean unissent leurs forces dans un ouvrage captivant sur les nouvelles manières d'entraîner les sportifs de haut niveau. Découvrez comment l'analyse de données et les technologies de pointe transforment radicalement le monde du sport, permettant aux athlètes et aux équipes d'améliorer encore et encore leurs performances de façon spectaculaire. Du rugby au football, en passant par la danse et l'athlétisme, Data & sport ? : la révolution dévoile comment chaque discipline tire parti des données pour optimiser les performances. Bien sûr, les auteurs explorent également les menaces soulevées par l'utilisation de ces data, et les problématiques qui en découlent pour la vie privée, la sécurité et l'équité. Que vous soyez passionné ou sportif du dimanche, utilisateur ou professionnel de la data, ou simplement curieux de comprendre comment les nouvelles technologies bouleversent l'entraînement des athlètes, plongez au coeur de cette révolution qui façonne l'avenir du sport, et découvrez comment, dans un futur proche, l'usage de la data touchera tous les sportifs.

08/2023

ActuaLitté

Marketing

Big Quali. La puissance des études qualitatives à l'ère du Big Data

Données qualitatives à grande échelle : pourquoi et comment les exploiter ? A l'heure du Big Data, toute marque a accès à une masse de données qualitatives (photos, vidéos, témoignages, etc.). Mais comment produire et exploiter cette matie re sans s'y noyer ? La réponse réside dans le Big Quali, méthode qui rend les études qualitatives plus riches et attractives au travers du numérique. A la clé : - des échantillons plus importants (forums, communautés, veille sur les réseaux sociaux) ; - des durées d'interrogation longues (jusqu'à plusieurs semaines) ; - des interactions enrichies par des logiciels, capteurs, caméras, etc. La force du Big Quali ? - Générer des données quali massives et diversifiées, en coopération avec les consommateurs - a condition de savoir les stimuler. - Bénéficier d'une multitude de points de vue indépendants et d'une vision globale. - Généraliser des règles à partir d'une vue panoramique alliée à une analyse culturelle en profondeur. - Accéder à un résumé illustré d'une quantité d'observations et de vécu. Le Big Quali, c'est offrir une vision omnisciente, qui fait le tour d'une réalité, dans un temps et un budget limités. Une façon de générer les fameux insights (éclairs de compréhension), sources d'innovation et de créativité.

01/2022

ActuaLitté

Assurances

Appliquer la Data Science à l'assurance

Les capacités technologiques augmentant très vite et les bases de données se multiplient. Face à cette nouvelle masse importante de données, les modèles actuariels classiques deviennent perfectibles grâce à une nouvelle discipline qu'est la " Data Science ". L'idée de Data science recouvre la capacité de traiter un spectre de données plus large que celui couvert généralement par les actuaires. Or, la Data science peut offrir de nouvelles opportunités aux assureurs. Par exemple, en santé, les modèles Data Science, par une étude plus poussée des données à disposition et l'intégration de données externes, permettent d'affiner l'analyse de la consommation médicale et d'identifier de potentielles dérives sur des groupes d'assurés présentant des caractéristiques communes. L'objectif de l'ouvrage est d'expliquer ce qu'est cette nouvelle discipline, complémentaire à l'actuariat ; de présenter le métier de Data scientist qui se développe dans les entreprises d'assurance ; et d'étudier les applications pratiques que cela peut avoir dans le secteur de l'assurance.

03/2021

ActuaLitté

Sciences politiques

Géopolitique des données. Pouvoir et conflits à l'heure du Big Data

Au cours des deux dernières décennies, la production de données numériques a connu une croissance sans précédent, redéfinissant la puissance entre Etats, mais aussi acteurs privés (GAFAM) et autres (hackers, cybercriminels, etc.). Cette redéfinition conduit à interroger la notion de frontière dans ce contexte non-clos où la localisation physique peut ne pas correspondre à la location logique ou juridique. Pour traiter cette masse de données disparates, il a fallu créer des outils (Big Data, intelligence artificielles) qui modifient également les rapports de puissance entre les Etats. Mais dont l'usage modifie aussi l'analyse géopolitique elle-même. Dans cet ouvrage dense et très complet, Amaël Cattaruzza analyse comment les données numériques ont doublement modifié la géopolitique. D'une part en redéfinissant la notion de frontière et de puissance entre Etats et acteurs non-étatiques, et d'autre part en refaçonnant son propre champ d'étude.

03/2019

ActuaLitté

Programmation

Découverte du Machine Learning. Les outils de l'apprentissage automatique

L'ouvrage : niveau B (Ecoles d'ingénieurs - Masters). Cet ouvrage propose une découverte pragmatique du Machine Learning à travers des exemples implémentés. Il constitue une introduction à différentes méthodes permettant aux étudiants de DUT, de licence, des écoles d'ingénieurs et aux chercheurs de découvrir plusieurs aspects du domaine. Le domaine du Machine Learning couvre un large spectre d'outils et de méthodes. Cet ouvrage fait un focus particulier sur les réseaux de neurones, les réseaux Bayésiens, les méthodes de classification, le pattern mining et les séries temporelles. La découverte s'effectue en utilisant des bibliothèques dédiées au Machine Learning, notamment TensorFlow, Keras, pyAgrum et Weka. Les exemples du livre sont essentiellement des problèmes qui ont été tirés des domaines d'expertise des auteurs. Les codes informatiques sont proposés en Python, en C et en Java, car les domaines où le Machine Learning est utile sont très nombreux et il est important d'avoir une vue globale de ce qu'il est possible de faire avec les outils récents.

04/2021

ActuaLitté

Informatique

Le Machine learning pour les nuls

Plongez au coeur de l'intelligence arficielle et de la data science Vous aussi participez à la révolution qui ramène l'intelligence artificielle au coeur de notre société, grace à la data scince et au machine learning. La data science consiste à traduire des problèmes de toute autre nature, en problèmes de modélisation quantitative, résolus par des algorithmes de traitement. Ce livre va vous faire découvrir tous les ingrédients qui font du machine learning l'outil indispensable du développement d'applications liées à l'intelligence artificielle. Au programme de ce livre : Découvrez toutes les applications du quotidien qui utilisent le machine learning Apprenez les langages du machine learning : Python et R, afin de vous adresser aux machines qui effectueront des traitements sur les données Apprenez à coder en R avec R studio Apprenez à coder en Python en utilisant Anaconda

11/2019

ActuaLitté

Théâtre

Data, Mossoul

Mila Shegg, spécialiste de l'informatique quantique employée en 2025 par un géant du numérique, a oublié trois années de sa vie. A la recherche de sa mémoire perdue, elle entreprend une quête qui la mène au croisement de plusieurs espaces-temps, au coeur des chaos du monde. L'ancien Empire assyrien, la bataille de Mossoul en Irak (2016-2017) et notre futur proche ont en commun un effondrement imminent qui appelle à la résistance et à la poétisation de nos regards. Grâce à une structure dramatique mêlant les lieux et les époques, Joséphine Serre nous plonge avec audace dans une dystopie qui questionne notre rapport au temps. Des tablettes d'argile antiques aux data centers contemporains, elle montre combien le contrôle de l'histoire et des connaissances humaines façonne notre identité et conditionne notre avenir. Son texte kaléidoscope pour sept acteur.rices ou plus est un appel à la lucidité.

09/2019

ActuaLitté

Communication - Médias

Toxic Data

Un polar contemporain qu'il faut lire pour ne pas en être la victime. Avec la montée en puissance des réseaux sociaux, une lame de fond s'abat sur les démocraties : le tissu social se déchire, les opinions sont manipulées, les élections sont déstabilisées. Si les outils numériques ont représenté une innovation majeure dans la production et la diffusion de savoirs, ils ont également leurs côtés obscurs : ils donnent les clés de l'influence sociale à tout acteur, politique ou étatique, qui souhaiterait asseoir ses idées auprès d'un grand nombre de nos concitoyens. Comment se prémunir des intoxications et sauver notre démocratie de l'overdose numérique ? La science révèle notre dangereuse inadaptation à la nouvelle donne numérique mais nous aide également à en combattre les ravages. Livrant une analyse stupéfiante des effets de l'action des GAFAM dans notre quotidien, David Chavalarias propose des pistes concrètes, tant individuelles que collectives, pour nous en protéger.

03/2023

ActuaLitté

Gestion

La révolution Big Data. Les données au coeur de la transformation de l'entreprise

Qu'est-ce que le big data ? Le big data est constitué par toutes les données que nous générons à chaque instant, dont le volume global croît exponentiellement. De l'historique de navigation aux localisations GPS, jusqu'au rythme cardiaque, à la météo et au solde des comptes courants, ces données récoltées par les mobiles, applications et autres objets connectés génèrent de nouveaux usages pour les Etats et les entreprises. Le big data, pour quoi faire ? Les entreprises doivent apprendre à maîtriser ces flux d'information, pour réinventer leurs relations avec le consom'acteur, leurs produits et services ainsi que leurs organisations. Aujourd'hui, comme demain, la donnée, c'est de l'argent. Le big data, comment ? Ce livre explore les fondamentaux du big data et ses outils, son exploitation dans l'entreprise, son impact sur les métiers et sa valeur pour l'entreprise. Il est illustré par de nombreux exemples et cas concrets dans diverses industries.

09/2014