Découvrez les technologies de l'IA
L’Intelligence Artificielle est un regroupement de plusieurs variétés de technologies. Si les technologies de l’IA sont nombreuses, l’IA School souhaite vous éclairer sur : le Machine Learning, le Deep Learning, le Computer Vision, le traitement naturel du langage, et bien d’autres encore…
PaLM le modèle de langage de Google, a révolutionné des domaines comme la génération de texte et la compréhension des langues.
Google RT-2, ou Robotic Transformer 2, est une avancée dans le domaine de la robotique et de l’intelligence artificielle (IA).
Le Text Mining est une discipline du Data Mining consistant à explorer de gros volumes de données pour découvrir les relations entre certaines data et identifier des modèles.
Le Data Storytelling consiste à transformer la data brute en récits captivants. Il s'agit donc de raconter une histoire à l'aide de chiffres.
L’intelligence artificielle (IA) se développe dans de nombreux secteurs d’activité : banques, assurances, médias ou encore santé.
GPT-5, ou Generative Pre-trained Transformer 5, est un modèle de langage développé par l’entreprise OpenAI.
La Modern Data Stack (MDS) est une approche moderne pour le traitement et l’analyse des données en entreprise.
L’apprentissage auto-supervisé est une méthode de machine learning qui repousse les limites de l’entraînement des modèles.
L’apprentissage semi-supervisé est une technique de machine learning qui combine les avantages de l’apprentissage supervisé et non supervisé.
Amazon Q est un assistant virtuel de nouvelle génération, développé par Amazon Web Services (AWS).
C’est en 1950 que Turing expose pour la première fois son test, dans une étude intitulée Computing Machinery and Intelligence.
La Robotic Process Automation est l’utilisation de robots logiciels dans le but d’effectuer des actions répétitives.
Dans le domaine du machine learning, le Data Leakage a pour définition fuite de données ou divulgation de données
Le Data Lakehouse est une technologie combinant deux points forts de Data Science : le Data Lake et le Data Warehouse.
Les principes du DevOps englobent un ensemble d’actions. C’est une vraie philosophie qui tend à modifier la façon dont les équipes opèrent.
Gemini est à la fois le nom de la famille de grands modèles de langage (LLM) et celui du chatbot anciennement nommé Bard.
ChatGPT Builder propose de nombreuses fonctionnalités permettant d’optimiser la création d’applications d’IA.
Le metavers est un univers fictif où les utilisateurs sont représentés par des avatars numériques pouvant vivre des expériences immersives telles que travailler ou sortir avec des amis.
Grok, développé par xAI et dirigé par Elon Musk, est un chatbot génératif, conçu pour rivaliser avec les solutions d'IA comme ChatGPT.
DataOps présente une méthodologie inspirée de DevOps et du développement Agile permettant d’optimiser la gestion des données.
Le fine-tuning est une technique consistant à spécialiser un modèle d'IA pré-entraîné à l'accomplissement d'une tâche spécifique.
La Data Intelligence fait référence à l'utilisation de données pour améliorer la compréhension des processus et anticiper les tendances.
Un Dense Neural Network est un type de RNA dans lequel chaque neurone d’une couche est connecté à tous ceux de la couche suivante.
Le manifold learning est une technique visant à identifier une représentation de dimension inférieure d'un dataset de haute dimension.
Le recall est une mesure de performance couramment utilisée pour les modèles de classification.
Le data mining est un domaine de l'informatique qui vise à découvrir des modèles, ou patterns, de relations et des anomalies.
En informatique, ce terme anglais se rapporte à une « invite » de commande affichée par un système informatique. Elle propose à l'utilisateur d'entrer des instructions ou des données.
L'Interface Definition Language est un outil pour décrire les interfaces entre composants d’applications malgré les différences de langage et de technologie.
L'Integrated Development Environment est un logiciel de création d'applications regroupant des outils qui facilitent le travail des développeurs.
Un Réseau Antagoniste Génératif (GAN) est un type de modèle de Deep Learning, dans lequel deux réseaux neuronaux sont en compétition.
Kubernetes est devenu l’outil incontournable pour déployer, gérer et orchestrer des conteneurs à grande échelle.
Le transfert learning, ou apprentissage par transfert en français, est une technique d’apprentissage automatique.
Le webhook est un lien de rappel utilisé pour la communication et l’échange de données entre applications en ligne.
L’AI Act est une loi européenne qui apporte un cadre juridique à l’utilisation des systèmes d’intelligence artificielle.
t-SNE provient de l’anglais t-distributed stochastic neighbor embedding. Il s’agit d’un algorithme d’apprentissage non supervisé.
Un Support Vector Machine, Machine à Vecteur de Support ou SVM, est un algorithme de Machine Learning supervisé.
LLaMA, pour Large Language Model Meta AI, est une collection de modèles de langage allant de 7B à 65B paramètres.
VALL-E est une avancée majeure dans le domaine de la synthèse vocale grâce à l’intelligence artificielle.
LaMDA, pour Language Model for Dialogue Applications, est un modèle de traitement du langage naturel (NLP) développé par Google.
Cette méthode de gestion implique l’ajout de machines supplémentaires de manière à mieux distribuer la charge de travail.
Un data pipeline est une série de processus automatisés et interconnectés permettant de déplacer, transformer et traiter les données.
L'Internet of Things, l'Internet des Objets ou encore l'IdO désigne un réseau d'objets capables de communication entre eux et avec Internet.
Duet AI est une IA, réponse de Google à Copilot de Microsoft, l'assistant basé sur l'IA et intégré aux outils tels qu'Excel ou Word.
Les altcoins sont des cryptomonnaies alternatives au Bitcoin (BTC), symbolisant une large gamme de monnaies numériques.
Le train_test_split a un rôle fondamental dans l’évaluation de la performance des modèles de Machine Learning.
Outre les modèles de langage GPT, OpenAI contribue à l'avancée de nombreux domaines de l'IA et du Machine Learning.
L'overfitting, ou surajustement, est un problème fréquent dans les domaines du Machine Learning et de la modélisation des données.
Apache Cassandra est une base de données NoSQL distribuée, conçue pour répondre aux besoins des applications modernes.
L'analyse en composantes principales est une analyse factorielle rattachée à la famille des statistiques multivariées.
La SGE est une nouvelle expérience de recherche propulsée par Google au printemps 2023.
Développé par Microsoft en collaboration avec OpenAI, Copilot était auparavant connu sous le nom de Bing Chat.
Une GRU, ou unité récurrente à barrière, est une architecture de réseau de neurones récurrents, introduite par Cho et coll. en 2014.
L'intelligence artificielle générative permet de générer du contenu à l'aide de modèles d'apprentissage supervisé ou non supervisé.
Le Data Mart propose aux différents services de l'organisation des données structurées et fiables à leur échelle.
La régression linéaire est une mesure statistique utilisée par les entreprises pour élaborer des prévisions et prendre des décisions.
KYUTAI, sphère en japonais, est présenté comme un laboratoire à but non lucratif entièrement dédié à la recherche ouverte en intelligence artificielle (IA).
L'AB Testing offre la possibilité de tester deux pages ou deux versions d'un programme, d'un site web, d'une campagne emailing, etc.
Un scatter plot est un type de graphique couramment utilisé pour visualiser et analyser la relation entre des variables.
Kaggle est une plateforme communautaire en ligne destinée aux scientifiques spécialisés dans les données et aux amateurs d'apprentissage automatique.
L’encapsulation consiste à regrouper les données et les méthodes qui les manipulent au sein d’une même unité logique ou classe.
Les bases de données non relationnelles se caractérisent par l’absence de schéma tabulaire traditionnel, fréquemment utilisé dans la plupart des systèmes de gestion de bases de données conventionnels.
HBase est une base de données NoSQL distribuée, scalable et open source, écrite en Java. Elle adopte les concepts, règles et fonctionnalités de Google BigTable.
GitHub est une plateforme collaborative de gestion de projets informatiques basée sur le cloud et utilisée par des millions de développeurs.
Midjourney est à la fois l'entreprise de David Holz et son outil SaaS de génération d'images à partir de descriptions textuelles.
"Data Driven" signifie que les décisions et actions d'une entreprise sont principalement basées sur l'analyse et l'interprétation de données.
Comme son nom l’indique, il a pour objectif d’automatiser la compréhension du langage naturel (CLN) pour appréhender la signification d’un texte dans sa globalité.
Cet algorithme de deep learning est capable d’accomplir différentes tâches liées au traitement du langage naturel (NLP).
Acronyme où "Chat" fait référence à la discussion en ligne, tandis que "GPT" signifie "Generative Pre-trained Transformer".
Un Webhook vous permet d'automatiser vos processus, d'améliorer votre réactivité et favoriser une intégration transparente entre services en temps réel.
L'intelligence artificielle, est passée de systèmes automatisés exécutant des tâches basiques à des agents autonomes.
Les données, riches en informations, alimentent l’innovation, la recherche, et la prise de décision dans de nombreux domaines.
Les données sont aujourd’hui utilisées autant dans la recherche que dans les stratégies marketing, elles sont aussi précieuses que convoitées.
Depuis plusieurs années déjà, le Big Data contraint les entreprises à repenser leur infrastructure informatique.
Les databases, les médias sociaux, les appareils connectés ou encore les capteurs sont autant de sources intarissables.
Découvrez la data visualization, la science de présentation visuelle des données analysées grâce à des outils graphiques.
Découvrez la data science, la science des données permettant de faciliter les prises de décision et d’effectuer des prévisions pour les entreprises.
Extension naturelle des méthodes agiles et de livraisons continues (CI/CD), DevOps concilie le développement et les opérations.
L’objectif principal de l’apprentissage automatique est de développer des systèmes capables d’améliorer leurs performances au fil du temps.
Les entreprises utilisent une plateforme Kubernetes, basée sur le cloud hybride, pour transformer des applications traditionnelles en applications cloud natives.
Seaborn, la bibliothèque Python pour la visualisation de données. Découvrez comment créer des graphiques percutants pour vos analyses.
Découvrez PROLOG, un langage de programmation logique utilisé en IA et en résolution de problèmes. Explorez ses concepts et usages.
La monnaie virtuelle, et en tout premier lieu le Bitcoin, a révolutionné la manière dont nous percevons l'argent.
Le traitement de données en streaming s’avère particulièrement pertinent dans les environnements qui réclament une réactivité instantanée.
Découvrez comment le traitement et l'analyse des données peut aider à prendre de meilleures décisions. Cliquez pour en savoir plus.
La Data Gouvernance : un ensemble de principes et de processus pour garantir la qualité, la sécurité et la conformité des données.
Apache Spark : un moteur d'analyse rapide et flexible pour le traitement de données massives. En savoir plus avec notre article.
Apache Hive : la solution open source pour stocker, traiter et analyser de grandes quantités de données. Tout connaître sur cette data warehouse.
Découvrez ce qu'est le no code, une approche révolutionnaire permettant de créer des applications sans compétences en programmation.
Le blended learning combine l'apprentissage en ligne et en présentiel pour une expative complète. Découvrez comment il optimise l'enseignement.
Le Big Data est un terme assez plébiscité ces dernières années. Tour d’horizon sur l’univers des métadonnées.
Découvrez NoSQL, une base de données non relationnelle utilisée dans le domaine du Big Data pour le stockage et le traitement de masses de données.
Découvrez les avantages et les défis d'un Data Lab ainsi que les étapes à suivre pour mettre en place cette technologie dans votre entreprise.
La majorité des systèmes d’informations modernes fonctionnent grâce à une base de données relationnelle.
Les systèmes de gestion de base de données relationnelle sont de nos jours de plus en plus populaires. Découvrez ici Oracle Database ainsi que ses nombreuses fonctionnalités.
Découvrez MLOps, le processus permettant de faciliter l’apprentissage automatique pour les programmes IA dans le domaine de la data science.
Amazon Web Services est le plus grand fournisseur de solution cloud à travers le monde. Lisez cet article pour tout savoir sur cette plateforme très utile.
Jupyter est l’outil collaboratif le plus utilisé par les développeurs Python et les Data scientists. Plus de détails sur le fonctionnement de cet outil ici.
PyTorch est l’un des frameworks incontournables pour se spécialiser dans le Deep Learning. Découvrez comment il fonctionne ainsi que ses avantages ici.
Scikit-Learn est une bibliothèque Python dédiée au machine learning. Son interface simple et unifiée permet d’accéder à de nombreux algorithmes de classification.
Découvrez CORBA, la norme créée par l’OMG qui permet les communications entre les objets de natures différentes sur des matériels informatiques distincts.
Découvrez dans cet article l’essentiel de ce qu’il faut savoir sur l’intelligence artificielle : fonctionnement, utilisation, enjeux, avantages et inconvénients… On vous dit tout.
Snowflake est une solution de stockage et d’analyse de données pour les entreprises. Découvrez ici toutes les fonctionnalités de cette solution data cloud.
L’architecture SOA révolutionne le développement et l’intégration des applications, en favorisant la réutilisation, la flexibilité et la scalabilité.
Découvrez tout sur Microsoft Power BI, un outil intéressant d'analyse de données avancé. Visualisez vos données et prenez des décisions éclairées en temps réel.
Découvrez GitLab, la plateforme DevOps open source indispensable pour tout développeur cherchant à améliorer sa productivité grâce à une solution tout-en-un efficace
Blockchain, la technologie à l’origine des cryptomonnaies, découvrez son origine, son fonctionnement et son potentiel technologique.
MySQL est un système de gestion de base de données relationnelle (SGBDR) qui fonctionne comme un serveur.
Une Data Warehouse (entrepôt de données) est une base de données centralisée qui stocke des données issues de différentes sources.
Si vous êtes un développeur, il est impossible que vous n’ayez pas entendu parler de Tensorflow. C’est parce que c’est l’un des outils les plus efficaces pour l’apprentissage automatique. Dans cet article, nous allons nous plonger dans le fonctionnement de Tensorflow.
Les chatbots existent depuis des années, mais leur popularité a récemment augmenté grâce aux progrès de l’intelligence artificielle. Les chatbots sont des programmes informatiques qui simulent une conversation humaine en répondant aux utilisateurs en langage naturel.
Le cloud souverain est un nouveau concept dans l’industrie du cloud. Il s’agit d’un service qui offre aux agences gouvernementales un contrôle total sur leurs données et une confidentialité maximale. L’objectif de ce type de cloud n’est pas de faire de l’argent.
Le cloud computing est un terme générique qui décrit tout service hébergé à distance, plutôt que sur votre propre machine ou dans votre propre bureau. Le plus souvent, le cloud computing fait référence à l’utilisation d’un service comme DropBox ou Google Drive pour stocker des fichiers en ligne.
Le traitement du langage naturel (NLP) est la capacité des ordinateurs à comprendre la parole et les textes humains. Il est souvent utilisé dans les projets d’intelligence artificielle et d’apprentissage automatique. Le NLP peut également être utilisé à d’autres fins, comme l’amélioration des moteurs de recherche.
Le machine learning est une branche de l’informatique qui a gagné en popularité au cours de la dernière décennie. Le machine learning peut être utilisé pour développer des systèmes qui apprennent et s’améliorent par l’expérience, sans être explicitement programmés ou structurés.
GPT-3 » est l’abréviation de "Generative Pre-trained Transformer 3". L’idée derrière GPT-3 est d’utiliser le deep learning pour apprendre aux ordinateurs à apprendre de leur environnement afin de résoudre des problèmes par eux-mêmes. Nous avons déjà vu comment le deep learning a permis aux ordinateurs de maîtriser de nombreuses tâches.
La programmation orientée objet (POO) est un paradigme de programmation qui se concentre sur les données d'une application. L’objectif de la POO est de faciliter l’écriture et la maintenance du code. Les langages de POO sont conçus pour que les programmeurs puissent facilement créer, réutiliser et partager du code.
Apache Flume est un excellent outil open source utilisé pour collecter, gérer et transporter efficacement de grosses quantités de données de journalisation.
BERT (Bidirectional Encoder Representations from Transformers), est un langage conçu pour générer du texte en langage naturel.
Le Web Scraping (WS) permet de répondre au besoin des data analysts d'obtenir rapidement des données pertinentes à analyser.
Linéaire ou parallèle, le workflow (ou flux de travail) peut être formalisé sur un simple document ou dans un logiciel spécifique.
Le framework Hadoop est né avec l'arrivée du Big Data. Son fonctionnement se base sur un système de fichiers distribués HDFS et l'exécution en parallèle des tâches.
Le feature engineering consiste à choisir, extraire et remodeler les caractéristiques appropriées pour créer des modèles de Machine Learning.
La data exploration est l’une des premières étapes de la préparation des données. On l’utilise pour traiter et explorer de larges ensembles de données.
Quelle est cette pratique DevOps efficace qui assure un déploiement continu, réduit les risques et optimise les performances ?
Apache Ant (Another Neat Tool), est à la fois une bibliothèque Java et une ligne de commande intégrée qui automatise le processus de construction de logiciels.
Le refactoring, ou réusinage correspond au processus de restructuration du code source d’un logiciel ou une application.
Il s'agit d'une technique d’analyse statistique et de Machine Learning utilisée pour modéliser la relation entre des variables.
Il permet de classer un dataset en clusters en fonction de leurs similarités, selon un nombre de regroupements, représenté par la lettre K.
L’objectif de l’apprentissage supervisé est d’apprendre à l’algorithme à faire des prédictions ou des classifications grâce à l'entraînement.
Le data wrangling est le processus de nettoyage et d’unification de datasets désordonnés et complexes, afin d’en faciliter l’accès et l’analyse.
La cross-validation, ou validation croisée, est une méthode d’évaluation des compétences d’un modèle de Machine Learning.
Le drillthrough est une fonction de Power BI qui permet d’approfondir les détails d’un type spécifique de données ou de valeur générée ou affichée.
Le predictive modeling est une technique qui utilise le Machine Learning et l’exploration de données pour prédire des résultats futurs.
Il s'agit d'une technique de Machine Learning qui fait appel à des algorithmes pour analyser des ensembles de données non étiquetées.
Les Recurrent Neural Networks sont un type de réseau de neurones artificiels conçus pour traiter des données dans un ordre spécifique.
Bash est une interface en ligne de commande (CLI) qui permet aux utilisateurs d’interagir avec son système d’exploitation.
Un GAN est un cadre de Machine Learning. Deux réseaux neuronaux s’affrontent pour générer des prédictions précises (images, musique, dessins)...
Matplotlib est une bibliothèque de Data Visualization en Python, inspirée de Matlab et développée par John Hunter dans les années 2000.
Le Random Forest est un algorithme d’apprentissage supervisé introduit comme une extension de la technique des arbres de décision.
U-Net est une architecture de réseaux de neurones convolutifs largement utilisée dans le domaine de la vision par ordinateur.
Le Lean Management est une approche de gestion qui vise à améliorer l’efficacité opérationnelle, datant des années 1950.
C'est un service No Code, basé sur le cloud, qui offre des fonctionnalités d’ETL, Extraction, Transformation et Chargement, ainsi que d’intégration de données.
En informatique, l’algorithme désigne une série précise et ordonnée d’instructions ou de règles à suivre pour résoudre un problème ou exécuter une tâche.
C’est une méthode de calcul du chemin le plus court entre un nœud source et tous les autres nœuds d’un réseau. Il utilise une approche de recherche par priorité.
DALL·E est un modèle de réseau neuronal génératif développé par OpenAI utilisé pour la création artistique, la conception de produits et la génération d’images.
Docker est un logiciel open source conçu et développé en 2013. Il simplifie le développement, le déploiement et l’exécution d’applications à l’aide de conteneurs.
En Machine Learning (ML), l’underfitting survient lorsqu’un modèle ne parvient pas à capturer les structures sous-jacentes des données de manière adéquate.
La Computer Vision révolutionne la capacité des machines à percevoir et à interpréter visuellement le monde qui les entoure.
La Business Intelligence (BI) est un ensemble de technologies, de stratégies et de pratiques permettant d’analyser les données.
AlphaCode est la solution d'intelligence artificielle développée par Deepmind pour générer du code informatique.
Un Data Hub est une plateforme centralisée qui regroupe et gère diverses sources de données au sein d’une organisation.
Connu pour ses capacités de création de contenu, Jasper AI permet l'analyse avancée de données ou l'apprentissage automatique.
Contraction de deep learning et de fake. Cette appellation contient toute la matière du procédé utilisé pour réaliser un hypertrucage.
Il s'agit d'une architecture de Deep Learning dans laquelle deux réseaux neuronaux antagonistes sont entraînés.
Il s'agit d'une architecture spécifique de réseaux de neurones profonds utilisée en apprentissage automatique et notamment en Deep Learning.
Pour une entreprise, les sources de données permettent d'obtenir des informations nécessaires à son développement.
En intelligence artificielle, l'Epoch désigne le nombre de passages qu'un jeu de données d'entraînement effectue autour d'un algorithme.
L'algorithme de Kruskal est considéré comme un algorithme de référence pour trouver l'arbre couvrant minimal dans un graphe non orienté et pondéré.