Le rapport sur l’état de l’IA en 2023 est une analyse complète des développements les plus intéressants dans le domaine de l’IA. Le rapport a été produit par les investisseurs en IA Nathan Benaich et Ian Hogarth. Le rapport vise à susciter une discussion éclairée sur l’état de l’IA et ses implications pour l’avenir. Voici quelques points clés à retenir du rapport :
L’IA dans l’éducation
Le rapport met en évidence l’augmentation prévue de l’IA dans la technologie éducative et la nécessité d’agir pour prendre de l’avance. Le public explore comment l’IA pourrait être utilisée pour créer des devoirs personnalisés pour les étudiants.
L’IA et l’éthique
Le rapport souligne les efforts croissants pour recueillir des données sur l’IA et l’éthique. L’institut Brookings recommande aux décideurs de réglementer les principes généraux de l’IA plutôt que des algorithmes spécifiques, de prendre au sérieux les plaintes liées aux biais pour éviter que l’IA ne reproduise les injustices, les inégalités ou les discriminations historiques dans les données ou les algorithmes, de maintenir des mécanismes de surveillance et de contrôle humains, et de punir les comportements malveillants de l’IA et de promouvoir la cybersécurité.
L’IA et les affaires
Les résultats de l’enquête montrent que les performances élevées de l’IA – c’est-à-dire les organisations où les répondants affirment qu’au moins 20 % de l’EBIT en 2022 était attribuable à l’utilisation de l’IA – s’engagent pleinement dans l’intelligence artificielle, tant avec l’IA générative qu’avec des capacités d’IA plus traditionnelles. Ces organisations qui tirent une offre significative de l’IA utilisent déjà l’IA générative dans plus de fonctions commerciales que les autres organisations, notamment dans le développement de produits et de services ainsi que dans la gestion des risques et de la chaîne d’approvisionnement.
L’IA et la législation
La Conférence nationale des législatures d’État suit la législation sur l’IA aux États-Unis. Le rapport note qu’aux États-Unis, plusieurs décrets présidentiels sont axés sur la garantie de la confiance et de l’équité de l’IA, et le Bureau de la politique de la science et de la technologie de la Maison Blanche a présenté un plan visant à promouvoir la recherche et le développement de l’IA.
L’IA générative
La discussion sur l’IA générative occupe une partie assez importante du rapport. Fin 2022 et début 2023, le public a pris conscience des nouveaux chatbots d’IA générative. Il a commencé à explorer comment l’IA pourrait être utilisée pour rédiger des essais, créer des plans de cours, produire des images, créer des devoirs personnalisés pour les étudiants, et plus encore. La dernière enquête annuelle de McKinsey sur l’état actuel de l’IA confirme la croissance exponentielle des outils d’IA générative. Les répondants de toutes les régions, industries et niveaux hiérarchiques déclarent déjà utiliser des outils d’IA générative.
De plus, le rapport indique que le GPT-4 d’OpenAI est actuellement le modèle linguistique le plus puissant disponible. Le rapport affirme que ce modèle démontre le fossé des capacités entre la technologie propriétaire et les alternatives open-source sub-optimales. Il vérifie également le modèle d’apprentissage automatique basé sur les retours humains. Le rapport sur l’état de l’IA en 2023 se concentre principalement sur la recherche, l’industrie et la politique. Le rapport analyse l’état de l’industrie de l’IA de la sécurité aux prévisions. Dans cet article, nous explorerons les capacités de GPT-4 et ses implications potentielles pour l’avenir de l’IA.
Qu’est-ce que GPT-4 ?
GPT-4 est un modèle linguistique développé par OpenAI qui peut comprendre et générer du texte en langage naturel, en particulier dans des scénarios complexes et nuancés. Il est plus avancé que son prédécesseur, GPT-3, et est capable de traiter jusqu’à 25 000 mots de texte provenant de l’utilisateur. GPT-4 peut également accepter des images en entrée et produire des textes en sortie, ce qui en réalité un modèle multimodal.
Capacités de GPT-4
GPT-4 a été testé sur une variété d’examens initialement conçus pour les humains, et il se comporte assez bien, surpassant souvent la grande majorité des candidats humains. OpenAI affirme que GPT-4 est bien meilleur à la fois pour créer et collaborer avec les utilisateurs sur des projets créatifs, tels que la musique, les scénarios, l’écriture technique et même l’apprentissage du style d’écriture d’un utilisateur.
GPT-4 peut également être utilisé pour créer des tuteurs d’IA pour les étudiants et des technologies pour aider les personnes aveugles et malvoyantes à se déplacer dans le monde. Les développeurs peuvent intégrer GPT-4 dans leurs propres applications, ce qui pourrait rendre une grande partie des logiciels que nous utilisons plus intelligents et plus performants.
Les gros modèles sur le marché ont chacun leurs mérites. Actuellement, LLaMa2 est une tendance dans l’industrie. Avec LLaMa-1 et LLaMa2, de plus en plus de personnes cherchent à miniaturiser et à affiner les modèles, afin de « cloner ou de vaincre » les grands modèles propriétaires.
Limitations de GPT-4
Malgré ses capacités, GPT-4 présente des limitations similaires aux modèles GPT précédents. Le plus important est qu’il n’est toujours pas entièrement fiable et peut « halluciner » des faits et commettre des erreurs de raisonnement. Il convient de faire preuve de prudence lors de l’utilisation des sorties des modèles linguistiques, en particulier dans des contextes à enjeux élevés, en adaptant exactement le protocole aux besoins de la situation.
La longueur du contexte est l’une des principales limitations du LLM, et l’augmenter à 100 000 est une réalisation incroyable. L’état de l’IA a découvert que bien que la « longueur du contexte » dans les outils d’IA populaires soit plus courte, de nombreuses études dans l’industrie portent sur le contenu contextuel de la sortie du modèle.
Implications pour l’avenir de l’IA
La sortie de GPT-4 a suscité l’enthousiasme et les préoccupations des experts et du grand public. D’une part, GPT-4 et des modèles similaires pourraient accélérer le développement de projets créatifs et assistifs. D’autre part, on s’inquiète des risques potentiels de tels modèles linguistiques puissants. Cela inclut la possibilité de générer un texte biaisé, faux et haineux. Il y a aussi le risque d’être piraté pour contourner ses garde-fous.
Alors que l’IA continue de progresser, il est important de considérer les implications éthiques de cette technologie. Il est également nécessaire de développer des réglementations efficaces pour atténuer les risques potentiels.
Notre avis
Le rapport sur l’état de l’IA en 2023 révèle la croissance rapide et l’importance croissante de l’IA dans différents secteurs. Il montre également la nécessité pour les décideurs de prendre en compte les préoccupations éthiques et de réglementer les principes de l’IA. Cela vise à garantir que l’IA est fiable et équitable. Le rapport affirme que GPT-4 est actuellement le modèle linguistique le plus puissant disponible. Il a la capacité de comprendre et de générer du texte en langage naturel et d’accepter des entrées d’images. Il peut également traiter jusqu’à 25 000 mots de texte provenant de l’utilisateur. Bien qu’il ait le potentiel de révolutionner les projets créatifs et les technologies d’assistance, il présente également des limitations.
Actualité mobile et vidéo du moment
