Selon les rumeurs, dans la soirée du 10 juin, la première intelligence artificielle d’Apple, Apple Intelligence, a été introduite, ce qui changera complètement la façon dont nous gérons notre iPhone, iPad et Mac. L’IA d’Apple joue avec facilité, analyse, modifie, génère, résume des textes, crée des images, des emojis et effectue également des opérations complexes en plusieurs étapes dont les propriétaires d’iPhone ne pouvaient que rêver auparavant. Même si la version finale est encore loin, il est déjà clair qu’Apple Intelligence va vraiment tout changer – nous avons rassemblé ce que l’intelligence artificielle sera capable de faire.
Après une longue attente, Apple a organisé lundi soir à sept heures, heure hongroise, l’événement d’ouverture de la Conférence mondiale des développeurs 2024, dans le cadre de laquelle – comme on pouvait s’y attendre – les nouveaux iOS, iPadOS, macOS, watchOS, tvOS et visionOS ont été présentés des versions. Ceux-ci suffisaient à eux seuls à remplir la durée moyenne d’un programme d’une heure, mais Apple ne s’est pas arrêté là : ils ont également présenté Apple Intelligence, leur propre intelligence artificielle, sur laquelle ils travaillent depuis des années. Comme vous vous en doutez, Apple Intelligence permet des choses sur les iPhones que nous n’avons pas encore pu expérimenter sur les téléphones mobiles, ouvrant ainsi une toute nouvelle ère non seulement dans l’histoire des iPhones, mais aussi dans l’histoire des smartphones.
Cependant, comprendre Apple Intelligence n’est pas facile, c’est un développement tellement complexe dont Apple lui-même a parlé pendant près d’une heure – néanmoins, nous essaierons d’expliquer de quoi il s’agit le plus simplement possible.
Modifiez, rédigez et générez – en quelques secondes
Apple Intelligence, comme nous l’avons écrit, est la propre intelligence artificielle d’Apple, qui sera disponible gratuitement dans les versions d’iOS 18, iPadOS 18 et macOS Sequoia publiées à l’automne – à condition que notre appareil soit compatible avec elle ; Mais plus là-dessus plus tard. Apple Intelligence a quatre domaines d’utilisation principaux, qui à eux seuls réformeraient l’expérience iPhone, mais en comparaison, ils ouvrent une toute nouvelle norme. L’IA de l’entreprise peut fonctionner comme un grand modèle de langage,
il est donc facile de jouer, de générer du texte, de faire des résumés ou de reformuler des éléments, qu’il s’agisse d’un e-mail, d’un document ou d’une page Web entière.
Et le meilleur, c’est que l’intelligence fait partie intégrante d’iOS 18, iPadOS 18 et macOS Sequoia, donc l’IA peut fonctionner avec toutes les applications, qu’il s’agisse d’applications créées par Apple ou celles créées par un développeur tiers. En plus d’interpréter des textes, Apple Intelligence peut également fonctionner comme un générateur d’images : basé sur le texte, il peut créer une image dans trois styles, mais il peut même transformer une image existante – en fait, il peut créer n’importe quel emoji. Apple a nommé le développement de manière très créative genmoji, qui devrait devenir l’un des favoris des jeunes dans la nouvelle version du logiciel.
L’essence du genmoji est de créer n’importe quel emoji basé sur du texte, qu’il s’agisse d’un dinosaure dansant en jupe rose ou d’un simple sandwich aux œufs. Les emojis ainsi générés peuvent ensuite être utilisés exactement comme ceux pris en charge par Unicode « officiel » – au sein de l’écosystème Apple, rien n’indique qu’il s’agit d’une émoticône créée par nous ; tout comme nos amis utilisant iOS 18 verront Genmoji exactement tel que nous les avions imaginés. Cependant, la génération d’images ne s’arrête pas là, Apple Intelligence va pouvoir :
- améliorez les images en un seul clic ;
- pour supprimer certaines parties d’une image puis la remplir avec les détails appropriés ;
- et créez des dessins prêts à l’emploi à partir d’esquisses existantes en quelques secondes.
Il comprend ce qui est devant lui
Les troisième et quatrième points forts d’Apple Intelligence sont sa capacité à effectuer des tâches sur le téléphone, en plus de sa capacité à interpréter les instructions dans leur contexte, ainsi que sa capacité à comprendre ce que l’appareil affiche actuellement. Un bon exemple en est la nouvelle génération de Siri, qui arrivera sur les appareils Apple avec les nouvelles versions du logiciel. Siri, par exemple, si nous lui posons une question et que nous la suivons avec une nouvelle question liée à la précédente, elle saura déjà si la nouvelle question fait référence à sa réponse précédente ou non – car elle peut l’interpréter. Grâce à cela, la séquence d’opérations suivante peut être effectuée avec uniquement notre voix :
- Montrez-nous quel temps il fera à Budapest samedi.
- Quels sentiers de randonnée y a-t-il dans la région ?
- Choisissez le meilleur en fonction des avis et créez un événement de calendrier pour 10 heures du matin.
- Envoyez également l’invitation à Kitti et Gabi.
Tout cela – si nous n’y réfléchissons pas trop – ne prend guère plus d’une minute, alors que si nous devions faire la recherche nous-mêmes, nous devrons peut-être nous en occuper pendant 10 à 15 minutes. Apple Intelligence est également capable de faire des recommandations plus personnalisées que jamais, grâce au fait qu’elle formule ses réponses et ses résultats non pas à une « personne moyenne » mais spécifiquement au propriétaire de l’iPhone, de l’iPad ou du Mac, c’est-à-dire à nous, et car il a accès à toutes les données stockées sur l’appareil, il peut donc également fournir des réponses à des demandes telles que
- “Démarrez le podcast que ma femme m’a envoyé l’autre jour», obsession
- “Montre-moi les fichiers que j’ai reçus de Laci la semaine dernière»obsession
- “Montrez les photos de Gabi dans un haut violet».
La sécurité d’abord
Bien entendu, tout cela soulève de nombreuses questions sur la manière dont l’entreprise traite ces données, car dans de nombreux cas, les images, les textes et les documents peuvent également contenir des informations confidentielles – indépendamment de cela, elles peuvent toujours être utiles à l’utilisateur si l’IA Je peux travailler avec eux. Afin de rendre l’intelligence aussi sécurisée que possible, Apple a décidé que les opérations ne devaient pas se dérouler dans le cloud,
mais cela se fait sur les appareils eux-mêmes, donc les données ne sont pas transférées depuis l’iPhone, l’iPad ou le Mac.
Cependant, cela nécessite une force brute, que tous les appareils Apple ne disposeront pas d’ici l’arrivée d’iOS 18, d’iPadOS 18 et de macOS Sequoia. Apple Intelligence ne sera disponible que sur l’iPhone 15 Pro et l’iPhone 15 Pro Max, ainsi que sur les iPad et Mac équipés d’une puce de la série M. Cela signifie que les deux modèles de base dévoilés l’année dernière, l’iPhone 15 et l’iPhone 15 Plus, ne sont pas adaptés à l’exécution d’Apple Intelligence, car ces téléphones disposent « uniquement » d’une puce A16 Bionic.
Cependant, il y a des moments où même les performances de la puce A17 Bionic ou des puces de la série M ne suffisent pas, ou où Apple Intelligence doit répondre à des questions auxquelles une autre IA, par exemple, serait mieux à même de répondre. C’est alors qu’intervient la collaboration entre Apple et OpenAI, dans le cadre de laquelle les propriétaires d’iPhone peuvent utiliser ChatGPT et le modèle GPT-4o qui l’exploite gratuitement et sans loyer, car il est intégré à Siri et Apple Intelligence. Lorsque nous posons à Siri une question à laquelle l’assistant pense que ChatGPT serait mieux à même de répondre, il nous demande simplement si nous pouvons laisser l’assistant d’OpenAI répondre à notre question, et après avoir consenti, la réponse.
Il est important de noter que Siri ne s’appuiera jamais sur des modèles autres qu’Apple Intelligence sans notre consentement, tout comme Apple a déclaré que l’utilisation de ChatGPT ne nécessite pas de connexion à notre compte OpenAI, ni d’enregistrement du tout.
Je ne sais pas quand il sera prêt
Apple Intelligence est encore en développement pour le moment, et même si iOS 18, iPadOS 18 et macOS Sequoia devraient sortir à l’automne, il ne sera qu’en phase bêta – cela a déjà été déclaré par Apple également. comme le fait que seule une partie des fonctionnalités présentées maintenant sera disponible alors disponible ; Je souhaite rendre le reste disponible dans le courant de 2025. Il convient également de noter que le développement ne sera pour le moment disponible qu’en anglais – Apple n’a rien dit sur l’arrivée de langues supplémentaires. Nous pouvons nous attendre à la première version finale d’Apple Intelligence l’année prochaine – en attendant, vous pouvez vous immerger dans d’autres nouvelles fonctionnalités des systèmes d’exploitation, car les nouveaux iOS, iPadOS et macOS contiennent de nombreuses nouvelles fonctionnalités en plus de celles d’Apple. AI, que nous rassemblerons également prochainement dans un bouquet . Vous pouvez regarder la keynote d’Apple à la WWDC 2024 dans son intégralité ci-dessous :
(Image de couverture : Apple)
Encore une fois, 150 sujets nouveaux et passionnants avec des réponses surprenantes