La fin du règne de l’iPhone ? L’IA atteint les appareils et personne ne sait si Apple est prêt

La fin du règne de l’iPhone ? L’IA atteint les appareils et personne ne sait si Apple est prêt
La fin du règne de l’iPhone ? L’IA atteint les appareils et personne ne sait si Apple est prêt
-

Selon Gartner, d’ici 2025, 75 % des données générées le seront en dehors des centres de données. Il est normal que les entreprises commencent à se demander dans quels cas il sera plus efficace de rapprocher le modèle des données plutôt que de tout transférer dans le cloud. Sa centralisation, jusqu’à présent l’option utilisée par défaut, présente des défis tels que l’augmentation des coûts informatiques, la sortie des données sensibles de l’organisation ou la latence qui dépend du réseau. Tout cela fait du transfert d’intelligence vers l’appareil une immense opportunité de marché. La course pour savoir qui l’attrapera a commencé.

Même si l’opportunité est évidente, elle ne s’avère pas facile. De nombreux éléments doivent être assemblés pour que l’IA générative descende du cloud et tienne dans nos poches : réduire le nombre de paramètres de modèle, atteindre une plus grande capacité de calcul sans consommer sa batterie, et même développer du matériel conçu pour exploiter de nouvelles formes d’intelligence artificielle. interaction. Et au bout de tous ces efforts, trouvez les cas d’usage qui le monétisent. Jetons un coup d’œil à chacune des pièces de cet équipement avant de les assembler.

Premier élément : des modèles de langage plus petits

Au cours de l’année écoulée, nous avons assisté à une explosion de petits modèles de langage (SML) adaptés à des usages spécifiques tels que la traduction, l’engagement dans des conversations ou la génération de texte. Bien que ces modèles soient moins sophistiqués et polyvalents que les modèles plus grands, ils utilisent plus efficacement les ressources informatiques, ce qui leur permet de fonctionner sur des appareils personnels tels que des smartphones et des PC.

La taille d’un modèle est mesurée par le nombre de jetons, qui équivaut à peu près au nombre de mots, et par le nombre de paramètres, qui sont les variables qui définissent ce que le modèle a appris lors de la phase de formation. Il est facile de déduire que plus il y a de paramètres dans le modèle, plus les besoins informatiques seront importants dans la phase d’inférence, c’est-à-dire lorsque l’utilisateur l’utilisera réellement pour faire des prédictions ou générer des résultats.

Les modèles plus avancés, comme Gemini 1.5 Pro ou GPT-4o, utilisent plus d’un billion de paramètres, ce qui les rend très précis, mais aussi plus coûteux. Par conséquent, des fournisseurs tels que Google, Meta, OpenAI et Mistral publient des versions avec moins de paramètres, réduisant ainsi l’échelle de plusieurs milliards à des milliards (un minimum est nécessaire pour obtenir des résultats fiables).

N’importe quel modèle peut être compressé et adapté à différentes utilisations. Par exemple, le lancement de Gemini 1.5 Pro s’est accompagné d’une version plus légère appelée « Flash » pour les cas d’utilisation nécessitant une faible latence. Ces versions rejoignent Gemini Nano, conçu spécifiquement pour les smartphones et depuis janvier 2024, il est intégré au Galaxy S24 de Samsung, ainsi qu’aux appareils propres de Google (Pixel).

Apple agit discrètement. Elle a récemment présenté OpenELM, un modèle ouvert qui cherche à optimiser le nombre de paramètres pour obtenir une plus grande efficacité dans l’utilisation de la mémoire et des ressources informatiques. Actuellement, quatre tailles sont proposées allant de 270 millions à 3 milliards de paramètres. Un avantage d’Apple est qu’elle peut optimiser ses modèles pour ses processeurs et concevoir sa prochaine génération de processeurs pour les nouveaux modèles. Justement, les copeaux constituent la deuxième pièce de l’engrenage.

Deuxième pièce : des puces plus puissantes et plus efficaces

Nvidia a été le grand gagnant de l’explosion de l’IA générative dans les centres de données, avec une position dominante incontestable. Désormais, tous les géants du cloud veulent mettre fin à cette dépendance en concevant leurs propres processeurs. Même Microsoft, qui s’était montré plus réticent (Google conçoit ses propres puces depuis près d’une décennie), a publié ses propres conceptions.

Apple cette année, lors de la présentation de son nouveau processeur M4, a fourni pour la première fois des chiffres concrets sur ses performances. Par rapport à son prédécesseur, le M2, il offre les mêmes performances avec deux fois moins de puissance. Selon les mots de Tim Millet, responsable de la division hardware, il s’agit d’une puce « outrageusement puissante ».

Et cela nous amène à la troisième pièce du puzzle que nous construisons, à savoir une nouvelle génération d’appareils personnels capables de prendre en charge des modèles gourmands en calcul.

Troisième pièce : nouvelle génération d’appareils personnels

L’IA générative ouvre la porte à une transformation des appareils personnels, du PC au smartphone. Cela pourrait même donner naissance à une nouvelle catégorie de matériel conçu pour être visible uniquement lorsque l’utilisateur en a besoin. Un dispositif qui nous libère de l’utilisation des écrans.

C’est précisément la proposition d’appareils comme PIN AI, qui, même si dans sa première version n’a pas réussi à répondre aux attentes générées (le remplacement du smartphone n’a jamais été réaliste), il laisse présager de nouvelles versions améliorées qui trouvent leur place sur le marché.

Sur chaque appareil, ce sera différent. En effet, les constructeurs comme Apple vont devoir gérer l’intégration de l’IA générative dans une large gamme de produits, du nouveau Vision Pro aux Mac. De plus, vous devez garder à l’esprit que les clients ne reçoivent pas l’innovation de la même manière sur tous les marchés. Par exemple, dans les domaines matures comme les PC, avec leurs propres cycles de renouvellement, il reste à voir si les clients sont prêts à payer plus pour les capacités d’IA. Tout dépendra des cas d’usage et de la manière de les monétiser. C’est la dernière des pièces que nous devons assembler.

Quatrième pièce : monétiser les assistants personnels intelligents

Au début, les assistants virtuels comme Alexa ou Siri ont stimulé notre imagination quant à ce qu’ils pouvaient faire, mais après avoir vécu avec eux pendant un certain temps, nous nous sommes habitués à leurs limites. Aujourd’hui, nous rêvons à nouveau d’un monde de possibilités en intégrant une IA générative multimodale capable de combiner de manière interchangeable voix, texte, vidéo et image.

Récemment, Google a présenté dans une vidéo un prototype d’assistant personnel capable d’entretenir une conversation, tout en analysant les informations de l’environnement de l’utilisateur via la caméra de l’appareil. Lors de la démonstration, l’assistant a fait preuve de son savoir-faire en identifiant correctement des séquences de code sur un écran d’ordinateur, en proposant des améliorations à un schéma électrique sur un plan ou en retrouvant une paire de lunettes oubliée parmi les papiers sur le bureau. De son côté, presque au même moment, OpenAI a présenté les avancées de ChatGPT, permettant à l’assistant de faire office d’interprète pour le CTO de l’entreprise, traduisant de l’italien vers l’anglais et vice versa lors d’une conversation en direct.

Apple part d’une position avantageuse : elle dispose d’une large base d’utilisateurs, environ 1,382 millions d’utilisateurs actifs dans le monde en 2023 selon Statista. Cela vous permet de comprendre comment les gens utilisent les assistants virtuels dans leur vie quotidienne, ce qui, associé à la puissance de l’IA multimodale, transformera notre relation avec la technologie. En effet, elle conclut actuellement un accord avec OpenAI qui lui permettra de proposer une version avancée de Siri. Certaines banques d’investissement font déjà des calculs, spéculant sur les revenus que pourrait générer la transformation de l’assistant personnel en un service d’abonnement payant similaire à iCloud. Si cela se produit, Apple aura trouvé un moyen de monétiser l’investissement.

Les pièces s’emboîtent : le déclic résonne en Bourse

Au cours de l’année dernière, les cours des actions des géants du cloud ont grimpé en flèche : le marché a récompensé leurs investissements dans la capacité de calcul et les centres de données. Si l’on observe leur évolution par rapport à Apple, on s’aperçoit vite qu’un fossé s’est creusé entre eux.

Nous sommes désormais sur le point de transformer la façon dont nous interagissons avec la technologie dans notre vie quotidienne. Il est temps que l’IA générative entre dans les appareils personnels.

Nous ne savons pas quels cas d’utilisation vont stimuler le marché, mais nous savons que la combinaison d’une faible latence, de coûts réduits et du contrôle des données sensibles est une formule gagnante pour le développement d’assistants personnels. Imaginez simplement l’impact qu’aura un service de traduction instantanée (latence nulle) ou la personnalisation de tout service résultant d’un enregistrement des interactions passées sur l’appareil lui-même (confidentialité).

Tim Cook est un PDG circonspect qui a imprégné de secret tous les projets qu’entreprend Apple. Une entreprise technologique qui n’est pas connue pour être la première à lancer des produits, mais quand elle le fait, elle façonne le marché. Le 10 juin, lors de son événement pour les développeurs, nous verrons si Cook non seulement surfe sur la vague de l’IA générative, mais s’il est capable de la mettre dans notre poche. Ainsi, en ayant les yeux tournés vers Wall Street, nous saurons si le marché fait confiance ou non à son leadership.

-

PREV Voici le Ring Slim
NEXT dans Night City, vous pouvez jouer à Half-Life 3