Recherche

Apache Spark. Développez en Python pour le big data

Extraits

ActuaLitté

Informatique

Apache Spark. Développez en Python pour le big data

Ce livre sur le framework Apache Spark vous permet d'apprendre à développer des applications en Python en vous appuyant sur l'analyse et le traitement de données volumineuses ainsi que sur la notion d'apprentissage automatique. Après quelques définitions de termes liés au domaine de la data, vous découvrez les fondements de Spark. Vous appréhendez l'architecture logicielle du framework, ses composants et les différents langages avec lesquels il est possible de développer. Vous entrez ensuite concrètement dans la transformation de données. Fonctions numériques, alphanumériques, ajouts d'information, suppressions, agrégations de premier ordre et plus complexes sont à l'honneur. Des fonctionnalités plus avancées telles que les fonctions de fenêtrage et celles définies par les utilisateurs sont étudiées et les nombreuses API de Spark parcourues, tout en étant illustrées par des exemples. Dans la suite du livre, l'auteur dévoile l'apprentissage machine. Apprentissage supervisé, non supervisé, profond et moteurs de recommandation sont autant de concepts détaillés. Vous découvrez les différents algorithmes présents dans Spark, les manières de préparer des données à l'entraînement ainsi que les possibilités d'évaluation d'un système prédictif au travers de plusieurs mises en pratique. Les notions d'arbres de décision, de forêts aléatoires, de réseaux de neurones, de régressions linéaires et de factorisation de matrices vous sont expliquées ainsi que le traitement des informations numériques et la vectorisation de textes. Pour finir, un chapitre met en avant l'industrialisation de Spark. Déployer, déboguer et tester son application ainsi que les subtilités de l'outil pour assurer une performance optimale sont autant d'éléments cruciaux détaillés. Si les exemples de code du livre sont en Python, langage aujourd'hui le plus utilisé avec Spark, certains sont en Scala, API la plus aboutie, pour vous apporter une vision complète du framework.

01/2022

ActuaLitté

Programmation

Apache Spark et Python. Coffret en 2 volumes : Maîtrisez le développement pour le Big Data

Ces deux livres offrent au lecteur un maximum d'informations sur le langage Python et le framework Apache Spark pour maîtriser le développement pour le Big Data. 1010 pages par nos experts. Des éléments complémentaires sont en téléchargement sur le site www. editions-eni. fr. Un livre de la collection Ressources Informatiques Python 3 - Les fondamentaux du langage (4e édition) Extrait du résumé : Ce livre sur les fondamentaux du langage Python 3 (ici en version 3. 11) s'adresse à tout professionnel de l'informatique, ingénieur, étudiant (et particulièrement en BTS Services Informatiques Organisations), enseignant ou même autodidacte, qui souhaite maîtriser ce langage très abouti. Il détaille tout le coeur du langage et du traitement de données et ouvre des perspectives importantes sur tout ce que Python 3 permet de faire. Le livre est consacré à la branche 3 de Python et présente bien sûr les nouveautés apportées par la version 3. 11. Toutefois, comme le langage Python 2 est encore très présent, lorsqu'elles existent, l'auteur présente les différences importantes avec la branche antérieure de Python... Un livre de la collection Expert IT Apache Spark - Développez en Python pour le big data Extrait du résumé : Ce livre sur le framework Apache Spark vous permet d'apprendre à développer des applications en Python en vous appuyant sur l'analyse et le traitement de données volumineuses ainsi que sur la notion d'apprentissage automatique...

02/2024

ActuaLitté

Programmation

Python pour la data science

Le best-seller O'Reilly sur la data science avec Python enfin traduit en Francais ? Pour de nombreux chercheurs, Python est un outil essentiel en raison de ses bibliothèques pour stocker, manipuler et obtenir un aperçu des données. Ce livre décrit toutes les ressources dont vous pouvez disposer pour mettre en oeuvre vos applications : IPython, NumPy, Pandas, Matplotlib, Scikit-Learn et d'autres outils associés. Les scientifiques en activité et les utilisateurs de données familiarisés avec la lecture et l'écriture de code Python trouveront avec cette référence complète l'outil idéal pour s'attaquer aux problèmes quotidiens : manipuler, transformer et nettoyer les données ; visualiser différents types de données ; utiliser les données pour créer des modèles statistiques ou d'apprentissage automatique. Ce livre est tout simplement la référence incontournable pour le calcul scientifique en Python. Vous apprendrez à utiliser : IPython et Jupyter : fournissent des environnements de calcul pour les data scientists utilisant Python NumPy : inclut le ndarray pour un stockage et une manipulation efficaces de tableaux de données denses en Python Pandas : comprend le DataFrame pour un stockage et une manipulation efficaces des données étiquetées / en colonnes en Python Matplotlib : inclut des fonctionnalités pour une gamme flexible de visualisations de données en Python Scikit-Learn : pour des implémentations Python efficaces et propres des algorithmes d'apprentissage automatique les plus importants et les plus établis

04/2022

ActuaLitté

Sports

Big Data Foot. Comment les datas révolutionnent le football ?

Des expected goals au Packing, en passant par la dangerousity et le ghosting, un nombre spectaculaire de statistiques, d'indices, de modèles complexes sont récemment apparus dans le football. Pourquoi pouvait-on prévoir l'éclosion de Sadio Mané dès son transfert du RB Salzbourg à Southampton ? Pourquoi Arsenal et Naples auraient dû priver respectivement Leicester et la Juventus de leur titre de champions en 2016 ? Quels sont les secrets offensif et défensif des équipes entraînées par Lucien Favre ? En quoi la paire Pogba-Kanté était-elle si complémentaire lors de la Coupe du monde 2018 ? Dans cet ouvrage passionnant, Christoph Biermann montre, à partir d'exemples récents piochés dans les plus grands championnats européens, l'influence croissante du big data appliqué au football.

09/2019

ActuaLitté

Informatique

Python pour la data science pour les nuls

Découvrez Python le langage de prédilection de la science des données La science des données ou data science consiste à extraire des connaissance dans un flot de données. Elle utilise des techniques et des théories tirées de domaines comme les mathématiques et la statistique. Les méthodes qui s'adaptent aux big data sont particulièrement intéressantes dans la science des données. Ce livre est destiné à tous ceux qui travaillent dans le domaine de l'analyse de données et montre comment mettre en oeuvre le langage Python pour dans ce domaine et uassi celui de la statistique. Il traite également de Google Colab, un outil qui permet d'cire du code Python dans le cloud. Au programme : Probabilités Distributions aléatoires Tests d'hypothèses Regressions Modèles de prédiction

11/2019

ActuaLitté

Informatique

Big Data & Streaming. Le traitement streaming & temps réel des données en Big Data

Le Big Data est désormais bien établi ! Il a atteint son paroxysme ces dernières années avec les objets connectés, l'intégration des capteurs dans les objets de la vie courante (voiture, réfrigérateur, télévision, etc.). Ces objets produisent des données en streaming. Beaucoup de cas d'usage et de modèles économique s'appuient aujourd'hui sur des données générées en streaming. Cet ouvrage est un manuel didactique qui a pour but de vous aider à développer les compétences de base nécessaires pour valoriser les don- nées produites en streaming. Que vous soyez freelance, consultant, Data Scientist, Architecte, Développeur ou Manager, cet ouvrage vous aidera à - Comprendre les concepts et notions essentiels pour aborder avec aisance la gestion des données streaming : - Appréhender et mettre en oeuvre les architectures nécessaires pour ingérer efficacement les données générées en streaming, notamment le Data Lake, les bus d'événements, les architectures Lambda, les architectures kappa, et les architectures hybrides ; Monter en compétence sur les technologies de l'écosystème Hadoop dédiées à l'ingestion et au traitement des données produites en streaming, notamment Apache Kafka, Spark Streaming, Flume, Apache Samza, Apache Storm et S4. Pour faciliter l'atteinte de ces trois objectifs, chaque chapitre s'achève par un rappel des points clés et un guide d'étude.

07/2019

ActuaLitté

Sociologie

Ainsi parlait le Big data

Le Big data sait tout de vous, mais que savez-vous de Big data ? L'" algorithmisation du monde " est en marche. Si l'on y réfléchit bien, l'idée d'organiser l'information est le principe même d'un moteur de recherche comme Google. Le Big data va façonner le siècle, c'est un nouvel instrument de pouvoir, et il est urgent de mettre en lumière les méthodes des entreprises qui influencent notre mode de vie. Dans la dystopie Lovestar, Andri Snaer Magnason se demande quelle part de liberté il reste à l'homme quand la science décide pour le bonheur de tous... Un monde où le meilleur ami qui vous conseille un livre est peut-être tout simplement payé pour cela sans que personne ne s'en doute. Un monde où les mégadonnées décident de tout, où des algorithmes ont une visée politique (cf. affaire Cambridge Analytica). Grâce au profilage réalisé par les algorithmes, le temps d'attention des consommateurs est en passe de devenir la [seule ? ] référence de la valeur des services. " Si j'avais demandé aux gens ce qu'ils voulaient, ils auraient répondu des chevaux plus rapides ", écrit Henry Ford. Et si le Big data ne constituait en définitive qu'un terrible aveu de faiblesse et d'impuissance générale, intégrant une arme de destruction massive à l'intérieur ?

10/2018

ActuaLitté

Informatique

Apache NetBeans. Développez vos applications en Java

Ce livre s'adresse aux développeurs qui souhaitent découvrir les principaux outils de l'environnement de développement intégré Apache NetBeans utiles pour le développement, la maintenance et l'industrialisation d'applications avec le langage Java. Dans chaque chapitre, les notions théoriques essentielles sont expliquées puis mises en pratique grâce à des exemples détaillés et des exercices corrigés. Les auteurs commencent par décrire la mise en fonctionnement d'Apache NetBeans et de l'environnement Java sur un poste de développement, avant de détailler les notions importantes de la programmation orientée objet grâce à la réalisation d'un programme. La prise en main de l'IDE est approfondie grâce à la présentation de fonctionnalités facilitant et accélérant les développements. Dans la suite du livre, le lecteur aborde des connaissances plus poussées lui permettant de développer des applications plus riches. Un cas concret d'utilisation propose une comparaison de deux librairies graphiques, Swing et JavaFX. La notion d'industrialisation d'une application est illustrée avec la présentation en profondeur d'outils comme Git, Maven ou SonarQube, très fréquemment rencontrés dans le milieu professionnel et nécessaires à la mise en place d'une maintenance efficace et pérenne des applications développées avec Java. Un exercice corrigé permet au lecteur de découvrir la technique de développement TDD (Test Driven Development) utilisée pour réaliser des logiciels de qualité. La conception et l'exploitation de services sont décrites avec le développement de services web de type SOAP et REST, qu'ils soient automatiquement générés grâce aux outils d'Apache NetBeans ou entièrement développés grâce au framework Spring. Les principaux patrons de conception, Model-View-Controller et Model-View-Presentation, sont également étudiés puis mis en pratique grâce aux outils proposés par Apache NetBeans et aux librairies JSP et JSF utilisées dans le cadre de développement d'applications Java EE. Pour aller plus loin, les auteurs familiarisent également le lecteur avec le profilage d'applications Java pour mettre en place une analyse en profondeur des performances d'une application Java.

01/2021

ActuaLitté

Informatique

Python pour la carte micro:bit

Une carte ludique pour apprendre à programmer Deux fois plus petite qu'une carte de crédit et coûtant moins de 20¤, la carte micro : bit est un nano-ordinateur lancé en 2016 au Royaume- Uni par la BBC pour initier les collégiens au codage et au pilotage de systèmes numériques. Pouvant être programmée depuis un PC, un smartphone, une tablette ou encore un Raspberry Pi, cette carte est compacte, robuste, simple d'utilisation, facile à connecter, fédérant une communauté très importante et s'accompagnant d'un grand nombre d'extensions. Pour la piloter, plusieurs langages de programmation sont disponibles : Python, JavaScript, MakeCode... Cet ouvrage se concentre sur la programmation de la carte micro : bit avec Python, le langage officiel pour l'enseignement de l'informatique au lycée. Ne nécessitant aucune compétence particulière en codage, il est organisé en trois parties. La première pose les bases du langage Python (variables, boucles, fonctions...), la deuxième regroupe différentes applications concrètes et facilement réalisables avec la carte micro : bit, et la troisième présente des projets plus complexes faisant appel aux extensions de la carte. Le lecteur sera ainsi amené à fabriquer un chronomètre, une boussole, ou encore à jouer de la musique. A qui s'adresse ce livre ? Aux enseignants (SNT, mathématiques, sciences) et à leurs élèves de lycée Aux makers, geeks, roboticiens, FabLabs...

09/2019

ActuaLitté

Informatique

PyQt5. Développez vos interfaces graphiques en Python

Ce livre sur le framework PyQt5 s'adresse aux développeurs qui, possédant déjà une expérience en développement avec le langage Python, souhaitent disposer des connaissances nécessaires et avancées pour concevoir des interfaces graphiques. De la notion de widget PyQt, en passant par les diverses façons d'agencer et de disposer les éléments d'une interface graphique, ce livre étudie en profondeur l'architecture et la conception d'une application PyQt. L'auteur détaille la gestion des évènements, les styles et les apparences d'une interface, la réalisation d'animations, l'interaction avec des bases de données relationnelles, l'intégration d'éléments sonores ou vidéo, la gestion des couches réseau ou encore le multithreading. Pour terminer, un chapitre est consacré à des utilisations de PyQt5 qui démontrent tout l'éclectisme du framework : l'affichage de graphiques et de diagrammes de données, le web browsing ou l'animation et la modélisation en 3D. A l'issue de ce livre, le lecteur sera en mesure d'être rapidement opérationnel en développement avec PyQt5. Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.

01/2021

ActuaLitté

Actualité médiatique internati

Petit dico critique du Big Data

Ce lexique met les mots du big data à la portée de tous, avec une approche critique, historique et sociologique. Il permet une compréhension des enjeux du big data, fournit des exemples concrets et une analyse critique des utilisations pour tous les domaines (assurances, élections, réseaux sociaux, économie, information et désinformation, santé, gouvernance, ville intelligente, surveillance, etc.) L'auteure et tous les intervenants ont une expertise largement reconnue. Ils travaillent sur l'ensemble du territoire : Angers, Bordeaux, Compiègne, Lille, Lyon, Lille, Montpelier, Nantes, Nancy, Nice, Paris, Rennes, Toulouse, Rouen. C'est le premier ouvrage qui propose une bibliographique complète sur le big data et tous ses usages. Destiné à tous ceux qui veulent comprendre le big data, ses usages, ses enjeux, ses critiques, de manière synthétique et pratique. Préface de Dominique Cardon, auteur de nombreux ouvrages dont A quoi rêvent les algorithmes, Seuil, 2015.

05/2023

ActuaLitté

Informatique

Big Data, Machine Learning et apprentissage profond

Cet ouvrage montre comment appliquer les méthodes de machine learning aux Big Data, et comment appliquer les méthodes plus spécifiques de deep learning aux problèmes plus complexes relevant de l'intelligence artificielle, tels que la reconnaissance d'image et le traitement du langage naturel.

04/2019

ActuaLitté

Informatique

L’économie de partage et le Big Data analytics

Les différentes facettes de l'économie de partage offrent de nombreuses opportunités aux entreprises, en particulier celles qui se distinguent par leurs idées créatives et leurs capacités à connecter facilement les acheteurs et les vendeurs de biens et services via des plateformes numériques. A l'origine de la croissance de cette économie, les technologies numériques avancées génèrent des milliards d'octets de données constituant ce qu'on appelle le Big Data. Cet ouvrage met en évidence le rôle facilitateur du Big Data analytics, afin d'expliquer pourquoi et comment les algorithmes d'analyse de données peuvent être intégrés opérationnellement pour extraire de la valeur et améliorer les pratiques de l'économie de partage. Il examine les raisons pour lesquelles ces nouvelles techniques sont nécessaires aux entreprises de cette économie et propose une série d'applications pratiques illustrant l'utilisation des données dans l'écosystème de partage.

07/2019

ActuaLitté

Programmation

Data Science avec Python. Avec Jupyter et PyCharm

Ce livre est destiné aux personnes souhaitant avoir une première immersion dans le domaine de l'analyse de données avec le langage de programmation Python et les librairies dédiées à l'analyse de données que sont NumPy, Pandas, Matplotlib et Seaborn. Dans ce livre, nous verrons principalement comment explorer, manipuler et visualiser des données structurées, c'est-à-dire des tableaux contenant des lignes et des colonnes. La première partie aborde l'utilisation de la librairie NumPy qui est une librairie Python dédiée au calcul scientifique fournissant des fonctions très performantes de calcul, mais aussi des structures de données spécialisées et remarquablement performantes. La seconde partie aborde l'utilisation de la librairie Pandas qui est une librairie Python dédiée à la Data Science. Il s'agit de la librairie Python la plus populaire et la plus performante pour faire de l'analyse de données. Cette librairie Pandas amène avec elle deux nouvelles structures essentielles pour l'analyse de données qui sont les structures Series et DataFrame. La troisième partie aborde l'utilisation de la librairie Matplotlib qui est une librairie graphique très connue en Python car elle est puissante, très simple à prendre en main et chaque élément de la figure peut être configuré finement via un grand nombre de paramètres disponibles. La quatrième partie aborde l'utilisation de la librairie Seaborn qui est la librairie la plus populaire pour la visualisation de graphique. En réalité, cette librairie s'appuie sur Matplotlib et elle apporte des fonctions supplémentaires permettant de générer des graphiques plus travaillés, aux allures plus modernes, et ce de manière très simple. La cinquième partie aborde la création d'une application autonome pour visualiser des graphiques élaborés avec les librairies Matplotlib et Seaborn. Nous y verrons notamment comment utiliser le composant FigureCanvasQTAgg pour visualiser des graphiques aux allures modernes dans un projet PyCharm avec Python et la librairie des contrôles PyQt5.

03/2022

ActuaLitté

Informatique

Big Data et Machine Learning. Les concepts et les outils de la data science, 3e édition

Cet ouvrage s'adresse à tous ceux qui cherchent à tirer parti de l'énorme potentiel des technologies Big Data, qu'ils soient data scientists, DSI, chefs de projets ou spécialistes métier. Le Big Data s'est imposé comme une innovation majeure pour toutes les entreprises qui cherchent à construire un avantage concurrentiel de l'exploitation de leurs données clients, fournisseurs, produits, processus, etc. Il a en outre permis l'émergence des techniques d'apprentissage automatique (Machine Learning, Deep Learning...) qui ont relancé le domaine de l'intelligence artificielle. Mais quelle solution technique choisir ? Quelles compétences métier développer au sein de la DSI ? Ce livre est un guide pour comprendre les enjeux d'un projet Big Data, en appréhender les concepts sous-jacents et acquérir les compétences nécessaires à la mise en place d'une architecture d'entreprise adaptée. Il combine la présentation : - de notions théoriques (traitement statistique des données, calcul distribué...) ; - des outils les plus répandus ; - d'exemples d'applications, notamment en NLP (Natural Language Processing) ; - d'une organisation typique d'un projet de data science.

08/2019

ActuaLitté

Economie (essai)

Big Data et plateformes. La nouvelle économie des données

Du big data aux plateformes, comment les données bouleversent les business models ? Un éclairage essentiel et inédit sur le nouveau capitalisme des données et ses enjeux qu'ils soient techniques, économiques, politiques et sociétaux. Quelles sont les raisons d'une telle montée en puissance des data et comment sont-elles créatrices de valeur en tant que matière première, levier et gain d'opportunité, actif stratégique. Le livre est enrichi de 20 études de cas et 10 cas complémentaires en ligne.

10/2022

ActuaLitté

Gestion

La boîte à outils de la stratégie Big Data

Quels sont les enjeux stratégiques et techniques du big data ? Quels sont les nouveaux métiers au sein de l'entreprise ? Comment gérer des équipes de manière agile et mener des projets big data ? Quelles technologies et infrastructures choisir pour développer l'usage du big data dans les entreprises ? Comment appliquer les résultats des modélisations ? Découvrez 65 outils et méthodes indispensables pour intégrer la stratégie big data au sein de votre entreprise. Chaque outil est traité de façon visuelle et structurée sur 2 ou 4 pages avec des schémas de synthèse, les objectifs et le contexte d'utilisation, des conseils méthodologiques, ainsi que des mises en situation concrètes.

09/2018

ActuaLitté

Informatique

Hadoop. Devenez opérationnel dans le monde du Big Data

Depuis plusieurs années, la France montre au travers du projet de Nouvelle France Industrielle (NFI) son ambition de se positionner stratégiquement sur le Big Data. Par ce projet, l'Etat reconnaît officiellement qu'au-delà de tout l'engouement médiatique autour du Big Data, la transition vers l'ère Numérique est bien réelle et que les opportunités du Big Data sont bel et bien existantes. Ce livre a pour objectif d'équiper le lecteur de toutes les compétences dont il a besoin pour saisir les opportunités offertes par le Big Data. Il s'adresse à toute personne qui souhaite prendre le virage du Numérique et travailler dans le Big Data : étudiants, consultants, analystes, chargés d'étude ou de recrutement Data, commerciaux de ESN, responsables de projet, développeurs, managers ou encore dirigeants d'entreprise. Pour tirer profit au maximum de la lecture de ce livre, des compétences de base dans le domaine des bases de données, de la programmation et du SQL sont un prérequis indispensable. En substance, le livre explique les nouvelles approches de traitement des données à large échelle, Hadoop (son architecture, son fonctionnement, ses évolutions), le stockage distribué des données, l'exécution du SQL sur Hadoop, les approches de traitement des données en streaming et en temps réel, les caractéristiques de l'ère Numérique ainsi que le leadership nécessaire pour saisir les opportunités de l'ère Numérique en général et du Big Data en particulier. Vous découvrirez ainsi notamment : - Deux cas d'utilisation d'Hadoop dans les projets Big Data innovants d'EDF et d'Air France - Les évolutions Big Data en cours dans le CAC40 et l'Europe - Les modèles architecturaux utilisés pour gérer le Big Data - Les modèles de calcul distribués utilisés pour traiter le Big Data, notamment le MapReduce - Le fonctionnement détaillé d'Hadoop - Les principes du stockage distribué utilisé pour stocker les données en Big Data, notamment le HDFS - Les quatre grandes faiblesses d'Hadoop et ses futures évolutions - La sécurité dans Hadoop et les révélations d'Edward Snowden - L'écriture et l'exécution des requêtes SQL dans Hadoop - Les approches de traitements des données streaming et temps réel - Les sept critères indispensables pour choisir sa distribution Hadoop - Les trois caractéristiques majeures de l'ère Numérique - Les cinq clés à utiliser pour détecter et saisir les opportunités du Big Data - Les trois pièges à éviter pour réussir dans le Big Data - Un plan simple en trois étapes pour anticiper et saisir les nouvelles opportunités du Numérique - Les quatre clés indispensables pour réussir vos projets Big Data - Les trois raisons de ne plus attendre pour apprendre Hadoop - Les six métiers du Big Data vers lesquels s'orienter - Les trois certifications disponibles pour crédibiliser ses compétences en Big Data - Une présentation de trois masters spécialisés dans le Big Data - Les deux moyens les plus utiles pour développer ses compétences en Big Data lorsqu'on a peu de moyens. Pour faciliter la compréhension de l'ouvrage, chaque chapitre s'achève par un rappel des points clés et un questionnaire qui permettent au lecteur de consolider ses acquis.

04/2017

ActuaLitté

Gestion

(Ré)inventez votre business model par le Big Data

La croissance exponentielle du nombre de données va se poursuivre dans les années à venir. La valorisation de ces mégadonnées, communément appelées Big Data, représente un enjeu majeur pour les entreprises. En effet, leur utilisation originale laisse entrevoir un potentiel de disruption dans la plupart des secteurs. Il est donc impératif pour toute entreprise de s'emparer de ce sujet. Mais comment s'y prendre ? (Ré)inventez votre business model parle Big Data offre une réponse opérationnelle à cette question. Après avoir actualisé les connaissances et révélé l'origine du potentiel de rupture lié au Big Data, les auteurs proposent d'explorer 40 cas concrets correspondant à 11 directions pour réinventer un business model. L'originalité de la démarche consiste notamment à imaginer, sur la base de ces exemples, comment valoriser les données avant même de les obtenir !

04/2018

ActuaLitté

Programmation

Python pour le data scientist. Des bases du langage au machine learning, 2e édition

Python est devenu en quelques années un langage majeur dans l'univers des applications centrées sur le traitement des données, et plus particulièrement des gros volumes de données (big data). Cet ouvrage servira de guide à tous ceux qui s'intéressent à l'utilisation de Python pour le travail sur les données et l'automatisation de certaines tâches (data science). Il met l'accent sur la préparation et la mise en forme des données qui sont essentielles dans la qualité du résultat et qui constituent aujourd'hui une part importante du travail du data scientist. Si vous vous intéressez au traitement des données avec le langage Python, cet ouvrage s'adresse à vous. Que vous soyez débutant en Python ou que vous ayez une expérience significative, il vous apportera les clés pour utiliser ce langage en data science. Ce livre répond à de nombreuses questions sur Python : Comment utiliser Python en data science ? Comment coder en Python ? Comment préparer des données avec Python ? Comment créer des visualisations attractives avec Python ? Comment appliquer des modèles de machine learning et de deep learning avec Python ? Comment passer aux environnements big data ? Vous apprendrez à tirer parti des multiples outils Python tels que Anaconda, Jupyter, NumPy, Pandas, Matplotlib, Seaborn, Bokeh, Scikit-Learn, TensorFlow, PySpark... pour mettre en place vos traitements. Cette deuxième édition est complétée et enrichie par des mises à jour de code liées aux évolutions de Python et des packages de data science. Des données plus récentes sont aussi utilisées. Les + en ligne : l'ensemble du code compris dans cet ouvrage est disponible sous la forme de notebooks Jupyter dans le repository public de l'auteur : github.com/emjako/pythondatascientist.

03/2021

ActuaLitté

Programmation

Python pour le data scientist. Des bases du langage au machine learning, 3e édition

Si vous vous intéressez au traitement des données avec le langage Python, cet ouvrage s'adresse à vous. Que vous soyez débutant en Python ou que vous ayez une expérience significative, il vous apportera les clés pour utiliser ce langage en data science. Ce livre répond à de nombreuses questions sur Python : - Comment utiliser Python en data science ? - Comment coder en Python ? - Comment préparer des données avec Python ? - Comment créer des visualisations attractives avec Python ? - Comment appliquer des modèles de machine learning et de deep learning avec Python ? - Comment passer aux environnements big data ? Pour mettre en place vos traitements, vous apprendrez à tirer parti des multiples outils Python tels que Anaconda, Jupyter, NumPy, Pandas, Matplotlib, Seaborn, Bokeh, Scikit-Learn, TensorFlow, PySpark... Cette troisième édition, entièrement refondue et augmentée, est enrichie des mises à jour de code liées aux évolutions de Python et des packages de data science. L'ensemble du code compris dans cet ouvrage est disponible sous la forme de notebooks Jupyter dans le repository public de l'auteur : https : //github. com/emjako/pythondatascientist

03/2024

ActuaLitté

Littérature française

Requiem pour une apache

CNLMusique – Jolene n'est pas la plus belle, pas la plus fine non plus. Et pas forcément la plus sympa. Mais lorsqu'elle arrive dans cet hôtel, elle est bien accueillie. Un hôtel ? Plutôt une pension qui aurait ouvert ses portes aux rebuts de la société : un couple d'anciens taulards qui n'a de cesse de ruminer ses exploits, un ancien catcheur qui n'a plus toute sa tête, une jeune homme simplet, une VRP qui pense que les encyclopédies sauveront le monde et un chanteur qui a glissé sur la voie savonneuse de la ringardisation. Ce petit monde vivait des jours tranquilles jusqu'à ce que Jolene arrive. En quelques mois à peine, l'hôtel devient le centre de l'attention et le quartier général d'une révolte poétique, à l'issue incertaine.

08/2020

ActuaLitté

Littérature française

Requiem pour une apache

Jolene n'est pas la plus belle, ni forcément la plus commode. Mais lorsqu'elle arrive dans cet hôtel, elle est bien accueillie. Un hôtel ? Plutôt une pension qui aurait ouvert ses portes aux rebuts de la société : un couple d'anciens taulards qui n'a de cesse de ruminer ses exploits, un ancien catcheur qui n'a plus toute sa tête, un jeune homme simplet, une VRP qui pense que les encyclopédies sauveront le monde et un chanteur qui a glissé sur la voie savonneuse de la ringardisation. Ce petit monde vivait des jours tranquilles jusqu'à ce que Jolene arrive. En quelques mois à peine, l'hôtel devient le centre de l'attention et le quartier général d'une révolte poétique, à l'issue incertaine.

01/2022

ActuaLitté

Marketing

Big Quali. La puissance des études qualitatives à l'ère du Big Data

Données qualitatives à grande échelle : pourquoi et comment les exploiter ? A l'heure du Big Data, toute marque a accès à une masse de données qualitatives (photos, vidéos, témoignages, etc.). Mais comment produire et exploiter cette matie re sans s'y noyer ? La réponse réside dans le Big Quali, méthode qui rend les études qualitatives plus riches et attractives au travers du numérique. A la clé : - des échantillons plus importants (forums, communautés, veille sur les réseaux sociaux) ; - des durées d'interrogation longues (jusqu'à plusieurs semaines) ; - des interactions enrichies par des logiciels, capteurs, caméras, etc. La force du Big Quali ? - Générer des données quali massives et diversifiées, en coopération avec les consommateurs - a condition de savoir les stimuler. - Bénéficier d'une multitude de points de vue indépendants et d'une vision globale. - Généraliser des règles à partir d'une vue panoramique alliée à une analyse culturelle en profondeur. - Accéder à un résumé illustré d'une quantité d'observations et de vécu. Le Big Quali, c'est offrir une vision omnisciente, qui fait le tour d'une réalité, dans un temps et un budget limités. Une façon de générer les fameux insights (éclairs de compréhension), sources d'innovation et de créativité.

01/2022

ActuaLitté

Programmation

Python pour la Data Science. Analysez vos données avec NumPy, Pandas, Matplotlib et Seaborn

Ce livre de la collection vBook se compose d'un livre de référence sur la Data Science avec le langage Python, alliant théorie et pratique, pour apprendre à analyser des données avec Python et d'un approfondissement sous forme de vidéo qui présente Numpy et Pandas, deux bibliothèques dédiées à la Data Science et à la visualisation de données. Livre Python pour la Data Science - Analysez vos données avec NumPy, Pandas, Matplotlib et Seaborn Ce livre sur la Data Science avec le langage Python, alliant théorie et pratique, s'adresse aussi bien aux étudiants et professionnels (ingénieurs, chercheurs, enseignants, data scientists), qu'aux informaticiens souhaitant apprendre à analyser des données avec Python. La première partie du livre vise à introduire le langage Python et son utilisation dans le domaine de l'analyse de données. Le lecteur y découvre la mise en place de l'environnement de travail ainsi que des rappels sur le langage Python. Dans une deuxième partie, le lecteur apprend à manipuler efficacement ses données grâce aux librairies NumPy et Pandas. Chaque notion est introduite théoriquement puis illustrée par un exemple concret permettant de comprendre son application. Il apprend à importer ses données sous Python et à utiliser les fonctions, méthodes et attributs fournis pour les explorer et les manipuler afin d'en faire ressortir des informations et tendances. Dans une troisième partie, le lecteur apprend à visualiser ses données avec les librairies Matplotlib et Seaborn, lui permettant de comprendre l'architecture et le fonctionnement de la création de figures avec Python, ainsi que les types de graphiques à utiliser selon le type de variables à représenter. Enfin, dans le dernier chapitre, l'auteur propose un exercice complet avec sa correction permettant de mettre en pratique les notions étudiées. Il permet au lecteur d'écrire le code permettant de répondre aux questions de l'exercice. Pour chaque chapitre, un fichier contenant le code source utilisé, appelé notebook, est disponible en téléchargement sur le site www.editions-eni.fr. Ce notebook permet au lecteur de tester le code, de le modifier et d'y tester ses propres lignes de code. De plus, deux jeux de données réels sont disponibles en téléchargement et utilisés dans ce livre pour illustrer les propos de l'auteur. Vidéo Data Science et visualisation de données L'arrivée du Big Data et la multiplicité des sources de données font que les besoins en matière d'analyse de données deviennent de plus en plus importants. L'objectif de cette vidéo est de vous montrer comment utiliser le langage Python dans le cadre de la Data Science pour être en mesure d'analyser de gros volumes de données. Nous présenterons Numpy et Pandas, deux bibliothèques dédiées à la Data Science et travaillerons sur la préparation et la visualisation de données.

03/2023

ActuaLitté

Informatique

La donnée n'est pas donnée. Stratégie & Big Data

La donnée est au coeur de la révolution cyber : tous nos outils quotidiens la brassent sans relâche au point qu'elle suscite un nouvel intérêt et qu'elle est à la pointe du débat scientifique : propriété des données, usage des données, localisation des données sont des sujets au goût du jour. Certains estiment même qu'à la guerre de l'information va succéder la guerre des données. Or ces sujets ne peuvent être débattus sereinement que si, au préalable, on a pris la peine de définir ce que le terme recouvre. Cet ouvrage répond à cette question, s'interrogeant sur le sens de la donnée selon les disciplines (économie, informatique, philosophie), puis sur le rôle de la donnée dans l'espace numérique. Il s'attache ensuite à décrire les différentes stratégies de la donnée, que ce soit dans le secteur privé ou dans le secteur public. Il est constitué des actes d'un colloque organisé à l'École Militaire en mars 2015, augmentés de quelques participations originales.

06/2016

ActuaLitté

Histoire et Philosophiesophie

La recherche scientifique à l'ère des Big Data. Cinq façons dont les Big Data nuisent à la science et comment la sauver

Que sont les Big Data ? Quel est leur fiabilité ? Quels sont les problèmes que ces données — massivement utilisées dans différents domaines de recherche — posent lorsqu'elles sont anciennes, douteuses, partielles, malhonnêtes ou "sensibles" ? Quel est l'effet sur le monde scientifique du traitement de plus en plus rapide des Big Data par l'intelligence artificielle, et qu'est-ce que cela signifie pour notre société ? Aujourd'hui plus que jamais ces questions sont au coeur d'un débat à l'échelle mondiale. Cet ouvrage sérieux, nécessaire et engagé prône une recherche moins rapide mais plus fiable, où les temps de production, de communication et d'analyse des données massives sont ralentis, en faveur d'une science participative et responsable. Un plaidoyer pour le retour de l'éthique dans la recherche scientifique, avec des principes-guide pour faciliter la transformation des Big Data en connaissances fiables.

04/2019

ActuaLitté

Sciences politiques

Big data électoral. Dis-moi qui tu es, je te dirai pour qui voter

Les big data sont devenus un impératif pour mener une campagne électorale. La campagne pour l'élection présidentielle française de 2017 a été marquée par le rôle majeur joué par des plateformes de gestion et d'analyses des données massives, telles que NationBuilder ou 50+1. Qu'est-ce que change le recours au big data électoral dans les manières de faire campagne ? Introduit-t-il des pratiques " innovantes " pour mobiliser les électeurs ? Voit-on apparaître de " nouvelles " formes de militantisme ? Comment sont construits les algorithmes prédictifs ? Sommes-nous réellement fichés sur Internet ? Comment protéger ses données personnelles ? L'auteure interroge l'efficacité de ces techniques, en mettant au jour les enjeux économiques, la construction de croyances autour des big data et les jeux d'influence internationaux. L'intérêt porté à la récolte des données n'est pas neuf. Il s'agit de retracer l'intégration de certaines évolutions techniques que ce soit chez nos voisins américains ou dans les campagnes françaises de 2002 à 2017, en déconstruisant les fantasmes entourant l'usage des bases de données en politique. Mais il s'agit surtout d'armer le citoyen face à la montée en puissance d'une nouvelle ère de la donnée.

04/2019

ActuaLitté

Agriculture

Data science pour l’agriculture et l’environnement. Méthodes et applications avec R et Python

L'objectif de la data science est de répondre à des questions opérationnelles en analysant des données. Dans ce but, le data scientist récupère, stocke, organise, traite une masse d'informations afin d'en tirer de la valeur. Si la data science a acquis une grande renommée dans de nombreux domaines comme la reconnaissance d'images ou la fouille de données sur internet, son utilisation en agriculture et, plus largement dans les sciences environnementales, reste encore limitée. Pourtant, dans ces domaines, le champ des applications possibles est très vaste. Potentiellement, la data science peut être utilisée pour évaluer l'impact des activités humaines sur les risques de pollution et les émissions de gaz à effet de serre, prédire en temps réel les rendements des cultures et la production des systèmes d'élevage, suivre l'évolution de l'usage des sols à partir de données satellitaires, ou prédire l'impact du changement climatique. Ce manuel d'initiation vise à démocratiser l'usage de la data science pour des applications en lien avec l'agriculture et l'environnement. L'ouvrage couvre les principales méthodes couramment utilisées pour la prédiction, la classification et le partitionnement de données. Il comporte à la fois des explications détaillées du fonctionnement de chaque méthode, une description de codes R et Python permettant leur utilisation pratique, et des exemples d'applications concrètes en lien avec les sciences agricoles et environnementales.

03/2021

ActuaLitté

BD tout public

Apache

Paris, début des années 20. Un vieux bouclard du quartier de la Bastille. Un serveur derrière le comptoir nettoie ses verres en rêvant, manches relevées, tatouages apparents sur des bras musclés et blancs. La nuit est tombée, la porte s'ouvre. Entre une très jeune et très jolie métisse, cheveux courts, garçonne, la silhouette fine. La femme est accompagnée d'un homme d'un certain âge, gros, riche, transpirant et essoufflé. Son micheton sans doute. Bientôt viendra les rejoindre le chauffeur de l'homme riche, aussi louche que patibulaire... Dans un huis clos étouffant leurs histoires vont se mêler, histoires de tranchées, de vols, de courses, de frangins, d'amour et de trahison. Au bout, il y aura la mort pour deux des quatre protagonistes. Oui, mais pour qui la faucheuse ?

03/2016