RUBRIQUE

RACINE INFO: Titre #21: Apple et l’Intelligence Artificielle: Une Révolution Technologique au Service des Utilisateurs

*RACINE INFO: _Causerie Numérique* , une rubrique hebdomadaire presentée dans le journal en ligne RACINE INFO par le Centre de Technologie en Informatique (CETINFO) se basant surtout sur la technologie de l'Intelligence Artificielle en vue de sensibiliser et d'éduquer la population haïtienne concernant les implications et les avantages de cette nouvelle technologie_

Apple Inc., l’une des entreprises technologiques les plus influentes au monde, a toujours été à la pointe de l’innovation. Depuis la création du premier Macintosh en 1984 jusqu’à l’introduction de l’iPhone en 2007, Apple a constamment repoussé les limites de la technologie. Aujourd’hui, l’entreprise se tourne vers l’intelligence artificielle pour continuer à révolutionner l’expérience utilisateur. Cet article explore comment Apple utilise l’IA pour améliorer ses produits et services.

Apple a toujours mis l’accent sur l’intégration de technologies avancées pour améliorer la vie de ses utilisateurs. L’IA n’est pas une exception. Tim Cook, le PDG d’Apple, a souvent souligné l’importance de l’IA dans la stratégie de l’entreprise. Lors d’une interview avec CNBC, Cook a déclaré : « L’IA est l’une des technologies les plus importantes de notre époque. Elle a le potentiel de transformer la manière dont nous interagissons avec nos appareils et de rendre nos vies plus faciles et plus productives. »

Cet automne, Apple fera son entrée dans l’ère de l’intelligence artificielle générative avec le lancement d’iOS 18, iPadOS 18 et macOS Sequoia. La marque californienne présentera « APPLE INTELLIGENCE », une initiative qui pourrait devenir aussi emblématique qu’iCloud. Ce coup marketing permet à Apple de redéfinir les initiales AI (Artificial Intelligence) et de rattraper son retard par rapport à Google et Microsoft. L’objectif d’Apple Intelligence est de transformer l’utilisation des iPhone, iPad et Mac en intégrant progressivement des fonctionnalités d’IA dans les applications du quotidien.

Lors d’une présentation en avant-première, Apple a dévoilé ses nouvelles fonctionnalités d’IA, qui seront déployées progressivement sur les iPhone 15 Pro et les iPad/Mac équipés des puces M1, M2, M3 et M4 d’ici l’automne. Les fonctions d’Apple Intelligence, qui seront disponibles dans iOS 18, iPadOS 18 et macOS Sequoia entre septembre 2024 et mai 2025, visent à automatiser des tâches complexes. Voici un aperçu de ce qui a été présenté:

 

Fonctionnalités d’Apple Intelligence

 

1. Éditeur de texte intelligent: La fonction Writing Tools permet aux utilisateurs de modifier du texte dans n’importe quelle application. En sélectionnant le texte et en cliquant sur un bouton coloré, il est possible de changer le ton (amical, professionnel, concis), corriger les fautes d’orthographe et de grammaire, résumer un texte en bullet points ou créer un sommaire. Apple Intelligence explique les corrections apportées.

 

2. Gomme magique: L’outil Clean Up dans Apple Photos permet de supprimer des éléments indésirables d’une photo, comme une personne gênante, grâce à un modèle génératif. Il peut également éliminer les ombres et les reflets en comprenant l’image de manière avancée.

 

3. Vidéos de souvenirs: Toujours dans Photos, Apple permet de générer un souvenir sur mesure via un prompt. En écrivant une phrase de demande, un mini-montage apparaît en 30 à 40 secondes. Il est modifiable manuellement (par exemple, pour retirer une image) et un titre est automatiquement proposé par Apple Intelligence en fonction de la vidéo créée.

 

4. Siri amélioré: Siri remplace son ancien système par un grand modèle de langage entraîné pour des questions spécifiques. Il peut désormais comprendre des questions imprécises, s’adapter à des changements d’avis, continuer une conversation ou répondre à des questions sur l’utilisation de votre iPhone ou Mac. Siri peut être appelé depuis n’importe quelle application par un double appui en bas de l’écran, sous forme de conversation textuelle.

 

5. Siri apprend de votre vie personnelle: Avec un « index sémantique », Siri pourra utiliser vos messages, photos et notes pour deviner de quoi vous parlez. Par exemple, en posant la question « À quelle heure arrive l’avion ? », Siri pourra identifier le vol en se basant sur une conversation avec un proche. Siri pourra également prédire vos questions futures en fonction de ce même système, et les développeurs pourront lui fournir des informations (option désactivable).

 

6. Surveillance de l’écran par Siri: La fonction Onscreen Awareness permet à Siri de comprendre ce que vous faites en analysant ce qui se passe sur votre écran. Par exemple, il pourra répondre à des questions comme « Qui est la personne à l’écran ? ». Apple précise qu’Apple Intelligence ne capture pas d’écran en permanence pour cette fonction. Siri peut également changer d’application et effectuer des actions pour vous.

 

7. Intégration de ChatGPT: Lorsque Siri ne peut pas répondre à une question, il peut la transmettre à ChatGPT sans nécessiter l’ouverture de l’application ou la création d’un compte. ChatGPT peut également analyser des photos ou des PDF directement depuis Siri et générer du texte à partir de rien dans n’importe quelle application, via un prompt.

 

8. Genmoji: Il sera possible de générer une émoticône sur mesure depuis le clavier « Émojis » en utilisant une phrase. Les émojis créés seront automatiquement enregistrés dans la section autocollants.

 

9. Générateur d’images : La fonction Image Playground permet de générer des images à partir de mots-clés dans un style animé. Ce système s’intègre à iMessage, Notes, Freeform, Siri et d’autres applications tierces. Il peut également caricaturer le visage d’un proche en version animée pour créer des images amusantes.

 

10. Stylo magique: Sur iPhone et iPad, un nouvel outil permet de générer une image en entourant un dessin ou du texte. Il utilise la technologie Image Playground.

 

11. Notifications optimisées : Le modèle de langage d’Apple lit vos notifications, les résume et les trie. Les notifications les plus importantes apparaîtront en premier sur l’écran verrouillé, et un nouveau mode ne pas déranger permettra de laisser passer les notifications jugées urgentes.

 

– Notifications prioritaires

 

Les notifications prioritaires apparaîtront au-dessus des autres, avec des résumés générés par l’IA. Une future version de Mail triera les messages en différentes catégories après relecture par Apple Intelligence. Des résumés seront également proposés, ainsi que des réponses automatiques via un questionnaire.

 

– Dictaphone et enregistrement d’appels

 

Le Dictaphone peut maintenant transcrire en texte un enregistrement vocal et le résumé. Cette fonction est également disponible dans Notes. L’application Téléphone peut désormais enregistrer un appel, le transcrire et le résumer.

 

– Disponibilité des fonctionnalités

 

Toutes les fonctionnalités ne seront pas disponibles au lancement. Certaines arriveront « plus tard cette année » (comme les fonctions dans les mails), tandis que d’autres ne seront pas disponibles avant 2025. Apple n’a pas précisé de calendrier exact, mais certaines fonctionnalités de Siri, comme Onscreen Awareness, ne seront pas disponibles en 2024. D’autres pourraient être accessibles sur liste d’attente.

 

– Modèles de langage d’Apple

 

Contrairement à certaines affirmations, la plupart des fonctionnalités d’Apple Intelligence utilisent des modèles de langage développés en interne. Apple ne nomme ni ne dénombre ces modèles, mais il existe au moins un LLM avec 3 milliards de paramètres pour le texte et un modèle de diffusion pour générer des images. Il existe également un LLM plus performant sur les serveurs d’Apple, aux caractéristiques inconnues. Officiellement, Apple Intelligence fonctionne parfois localement grâce à la puissance des puces A17 Pro, M1, M2, M3 et M4, et parfois dans le cloud, avec des versions plus puissantes des modèles préinstallés en local. Les serveurs d’Apple utilisent des puces Apple Silicon, plutôt que des cartes Nvidia comme le reste de l’industrie. Seules les fonctionnalités ChatGPT dans Siri et  »Composer » dans la génération de texte utilisent le modèle GPT-4 d’OpenAI. Le reste du temps, tout est fait maison.

 

– Fonctionnement hors réseau

 

Apple n’est pas très clair sur le fonctionnement hors ligne d’Apple Intelligence. La marque met en avant un usage local, mais il est possible que toutes les démonstrations aient utilisé le cloud. La décision finale sur les fonctions hors ligne semble en suspens, et Apple semble surtout présenter sa vision à long terme. Les futurs iPhone et produits Apple devraient augmenter leur puissance pour se tourner vers le local, avec de nouvelles fonctions.

 

Si une fonction ne marche pas en local, elle ne sera pas proposée sans connexion Internet. Ce sera le seul moyen de savoir si une opération Apple Intelligence fonctionne localement ou via le cloud, car Apple a décidé de ne pas informer l’utilisateur de ce qui se passe en coulisses.

 

– Utilisation de ChatGPT

 

Lorsque Siri n’a pas la réponse à une question, il peut demander à l’utilisateur s’il souhaite utiliser ChatGPT (si l’intégration a été activée). Siri envoie alors des données à OpenAI, mais uniquement des données sur la question posée.

Il n’est pas nécessaire de créer un compte ChatGPT pour débloquer cette fonction, mais les abonnés ChatGPT Plus peuvent se connecter pour synchroniser leur historique dans les réglages. Sinon, les requêtes sont anonymisées et non tracées par OpenAI. À chaque utilisation de ChatGPT, l’utilisateur devra donner son accord manuellement.

 

– Désactivation de ChatGPT

 

Par défaut, ChatGPT est désactivé. Lors de la première configuration d’Apple Intelligence, l’utilisateur pourra activer ou non l’intégration de ChatGPT. Il peut la désactiver à tout moment dans les réglages.

 

– Contournement de l’autorisation manuelle

 

Pour poser une question directement à ChatGPT, on peut dire « Siri demande à ChatGPT de faire ça ». Il n’y aura alors rien à valider manuellement. En cas d’envoi de photo ou de pièce jointe, la validation manuelle reste obligatoire.

 

Conclusion

L’arrivée d’Apple Intelligence marque un tournant majeur dans l’intégration de l’intelligence artificielle au cœur des produits Apple. En réinventant l’utilisation des iPhone, iPad et Mac, Apple propose des fonctionnalités avancées qui promettent de simplifier et d’enrichir l’expérience utilisateur. Qu’il s’agisse de l’éditeur de texte intelligent, des outils de retouche photo générative, ou encore des capacités accrues de Siri, ces innovations montrent comment l’IA peut automatiser des tâches complexes, offrant ainsi plus de fluidité et de personnalisation.

 

En s’appuyant sur des modèles de langage développés en interne et une approche hybride mêlant traitement local et cloud, Apple assure à la fois performance et sécurité. L’intégration prudente et progressive de ChatGPT démontre également un souci de transparence et de respect de la vie privée des utilisateurs.

En somme, Apple Intelligence n’est pas simplement une collection de nouvelles fonctionnalités. C’est une vision de l’avenir où l’IA joue un rôle central dans l’amélioration des interactions numériques, rendant la technologie plus intuitive et accessible. Alors que nous nous dirigeons vers cette nouvelle ère, il sera passionnant de voir comment ces outils évolueront et transformeront notre façon d’utiliser la technologie au quotidien.

 

Valdy Stanley Belony

Conférencier IA

Responsable de réseaux sociaux au CETINFO

Ambassadeur de ONPASSIVE (Entreprise IA)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page