vous pouvez nous envoyer un émail et nous vous répondrons dès que possible.




    À quoi s’attendre de l’IA en 2024

    Publié Jan,26 2024

    Juste avant que ChatGPT ne soit présenté au public en novembre 2022, le responsable des ventes d’OpenAI a été informé que la société publierait discrètement un « aperçu de recherche discret », qui n’affecterait pas les ventes. Plus de 180 millions d’utilisateurs plus tard, il est juste de dire qu’il est difficile de prévoir le monde de l’IA.

    Mais ce n’était pas seulement le succès de ChatGPT qui était difficile à prévoir. Une course croissante à l’IA entre les entreprises et entre les pays ; un forum du Sénat américain sur le thème des « scénarios apocalyptiques » ; une éviction dramatique de la salle de réunion de la société d’IA la plus importante au monde – ces événements auraient été extrêmement difficiles à anticiper il y a un an.

    Les progrès technologiques rapides de l’IA – et ses réactions sauvages variées – font que prédire l’avenir du domaine n’est pas pour les faibles de cœur. Mais le Magazine TIME s’est entretenu avec cinq experts qui, non découragés par la tâche, ont courageusement partagé leurs idées sur l’année à venir en IA.

    Centres de données gourmands en électricité

    En 2023, la pénurie de puces semi-conductrices est devenue la première manifestation physique du boom de l’IA. En 2024, la demande en électricité deviendra la deuxième, prédit Dan Hendrycks, directeur exécutif du Center for AI Safety, une organisation à but non lucratif basée à San Francisco.

    Les centres de données représentent environ 1 % de la consommation mondiale d’électricité. En Irlande, que les grandes entreprises technologiques favorisent en partie pour ses faibles taux d’imposition, les centres de données utilisent près d’un cinquième de toute l’électricité. Environ 20 % de la capacité mondiale des centres de données est actuellement utilisée pour l’IA. Cette proportion est susceptible d’augmenter fortement en 2024, car les systèmes d’IA sont entraînés et fonctionnent avec des quantités toujours plus importantes de puissance de calcul.

    Les entreprises essaieront, et essaient déjà, de conclure des accords avec les gouvernements pour sécuriser une alimentation électrique, suggère Hendrycks. « Vous avez besoin du soutien du gouvernement dans une certaine mesure pour obtenir ce niveau d’électricité. Je ne dirai pas qui, mais certaines de ces entreprises d’IA parleront aux dirigeants de ces États et essaieront de conclure des accords sur l’énergie, car leurs besoins énergétiques continueront de croître de manière si substantielle. »

    Parce que le pétrole est l’un des moyens les plus simples d’alimenter les centres de données, les pays riches en pétrole du Moyen-Orient, avec leur volonté de « verser de l’argent dans des investissements plus étranges », sont susceptibles de devenir plus importants dans la concurrence mondiale pour la supériorité de l’IA, dit Hendrycks. « Dans la mesure où nous pensons que les États-Unis et la Chine sont pertinents, la troisième [région] la plus pertinente serait probablement le Moyen-Orient », déclare Hendrycks à propos du paysage de l’IA l’année prochaine.

    Au creux de la désillusion

    Le battage médiatique de l’IA a peut-être atteint son apogée en 2023, déclare Rumman Chowdhury, PDG et cofondateur d’Humane Intelligence, une organisation à but non lucratif de test de l’IA. « Nous atteindrons le creux de la désillusion en 2024 », prédit-elle. « Nous allons réaliser que ce n’est pas cette technologie bouleversante qu’on nous a fait croire. »

    Les modèles d’IA les plus performants sont « d’immenses réalisations informatiques », et la prochaine génération est susceptible d’être encore plus performante, dit-elle. Mais le battage médiatique s’effondrera parce que personne n’a « compris à quoi servent les grands modèles de langage ».

    Pourtant, le battage médiatique de l’IA a été bénéfique en ce sens qu’il a incité les décideurs à agir, avec des conséquences immédiates pour les technologues, dit Chowdhury. « Tout le monde va prêter attention à ce qui se passe en politique d’une manière que personne n’a jamais eue auparavant. » Par exemple, bien que la loi complète sur l’IA de l’UE – la loi sur l’IA de l’UE – n’entrera pas en vigueur avant 2026, les entreprises devront commencer à se préparer dès maintenant, dit-elle. « Deux ans vont passer très, très rapidement dans le domaine des politiques. »

    Instaurer des modèles plus grands

    En décembre 2023, Google DeepMind a annoncé son dernier modèle d’IA, Gemini Ultra. Google DeepMind n’a pas révélé la quantité de puissance de calcul, ou « calcul », utilisée pour former le modèle, mais Epoch, une organisation de prévision de l’IA, estime qu’elle a été formée à l’aide d’opérations en virgule flottante de 90 septillions, probablement plus que tout autre modèle jamais construit.

    Gemini Ultra a légèrement surperformé le GPT-4 d’OpenAI, dont Epoch estime qu’il a été formé en utilisant environ un quart de calcul. Les chercheurs ont cartographié les relations entre la quantité de calcul utilisée pour former un modèle et la capacité du modèle à effectuer une tâche donnée, comme prédire le mot suivant, et ont constaté que des augmentations exponentielles du calcul d’entraînement entraîneraient des augmentations linéaires de la performance. En d’autres termes, Gemini Ultra est à peu près aussi bon que les chercheurs l’auraient prédit, dit le directeur d’Epoch, Jaime Sevilla.

    Les entreprises lanceront des modèles plus grands en 2024, qui seront de nouveau progressivement meilleurs, dit-il. Les chatbots feront moins d’erreurs, par exemple. Mais « du point de vue de l’utilisateur, ce ne sera pas comme ‘Wow, c’est comme une toute nouvelle capacité qui change la donne.’ »

    Le PDG d’OpenAI, Sam Altman, s’attend à quelque chose de similaire – parlant sur le podcast Joe Rogan en octobre, il a prédit que la réaction du public aux futurs modèles d’IA s’apparenterait à celle des nouvelles versions d’iPhone.

    Entrer dans les détails

    Au cours de la dernière décennie, les gouvernements et les entreprises ont dressé d’innombrables listes de principes et de stratégies éthiques. Mais en 2023, stimulée par la sortie de ChatGPT, les choses sont devenues plus précises, dit Inioluwa Deborah Raji, technologue à la Mozilla Foundation, une organisation mondiale à but non lucratif pour la liberté sur Internet. « On dirait qu’il y a enfin ce virage vers plus de concret … Je pense que cela aurait dû être fait depuis longtemps. »

    Raji espère que cela continuera. « Je pense que les choses vont devenir encore plus concrètes. Ce serait décevant si nous revenions sur certains des progrès que nous avons réalisés en 2023. »

    Cependant, la réponse politique, parce qu’elle a été catalysée par la publication du ChatGPT d’OpenAI, a été trop axée sur l’IA générative, dit Raji. « Très peu d’attention a été accordée à la reconnaissance faciale, à l’évaluation des risques, voire à certaines des technologies d’IA recommandées en ligne qui sous-tendent diverses plateformes. »

    Heureusement, le décret du président Biden a chargé les agences gouvernementales d’élaborer des plans pour faire face à l’IA. Par exemple, l’ordonnance exige que le ministère de la Santé et des Services sociaux publie un plan qui traite de l’utilisation de l’IA dans les services publics et les prestations. C’est le genre de travail détaillé et peu glamour qui est nécessaire, soutient Raji. « Espérons que l’année prochaine, les agences et les régulateurs spécifiques au domaine auront construit un peu plus de sensibilisation. »

    Un fossé grandissant

    L’Union internationale des télécommunications estime qu’environ 2,6 milliards de personnes, soit environ un tiers de la population mondiale, ne peuvent pas accéder à Internet. Cette fracture numérique peut définir qui peut bénéficier de l’IA, s’inquiète Bolor-Erdene Battsengel, chercheuse à l’Université d’Oxford et ancienne vice-ministre mongole du développement numérique et des communications. « Nous avons beaucoup d’inégalités existantes – inégalité en matière d’éducation, inégalité des revenus, inégalité entre les sexes. Si nous ajoutons la fracture numérique, l’écart d’inégalité sera impossible à réduire. »

    Même lorsque les utilisateurs des pays en développement sont en mesure d’accéder à l’IA, elle est rarement développée en tenant compte de leurs besoins, explique Battsengel. « La technologie est en cours de développement, ou des algorithmes sont en cours d’écriture, par des ingénieurs qui viennent principalement des États-Unis ou des pays développés. » La réponse de la part des pays les plus riches développant l’IA a été jusqu’à présent inadéquate, dit Battsengel. « Je n’ai vraiment pas encore vu d’initiative, en termes inclusive et égalité, de la part des principales parties prenantes d’AI. J’espère vraiment qu’il y en aura. »

    Le plus inquiétant est peut-être la menace que la désinformation générée par l’IA pourrait représenter pour la démocratie : 2024 est en train de devenir l’année électorale la plus importante de l’histoire moderne, et les élections au Bangladesh auraient déjà été perturbées. « Les deepfakes seront énormément utilisés, ajoutant à la désinformation existante et à la désinformation », prédit Battsengel. « L’une des choses que j’espère vraiment voir de la part des principales parties prenantes de la technologie est : quel est le moyen technique d’empêcher cela, ou au moins de reconnaître que c’est un deepfake ? »

    Source : Time Magazine

    Dernier actualité