The Information vient de révéler des éléments captivants concernant le partenariat entre Apple et Google. Ce dernier a pour ambition de faire de Gemini la pierre angulaire des fonctionnalités d’intelligence artificielle de la marque à la pomme, incluant une refonte significative de Siri. Découvrons ensemble les détails de cette alliance.
Développements autonomes, absence de branding Google ou Gemini
Le communiqué de presse annonçant le choix d’Apple d’utiliser Gemini pour ses fonctionnalités d’IA a manqué de détails techniques. Selon les précisions apportées, les nouvelles fonctionnalités seront exécutées sur les appareils Apple et dans un cloud privé, garantissant que Google n’aura pas accès aux données des utilisateurs.
Un rapport de The Information dévoile que Apple pourra ajuster sa version du modèle Gemini sans dépendre de Google. Ceci implique une liberté d’opération notable pour la firme. Apple peut solliciter Google pour des modifications, mais les retouches principales pourront être effectuées en interne afin d’adapter les réponses selon ses préférences.
Dans le prototype actuel, les réponses de l’IA ne portent aucune marque associée à Google ou Gemini.
Cette tendance vers un contrôle total sur l’expérience utilisateur nuit à toute impression de dépendance à Google. Comme l’a souligné Mark Gurman de Bloomberg, cette collaboration ne signifie pas une intégration massive des services Google dans l’écosystème Siri. Au contraire, il s’agit de proposer un modèle capable de répondre aux attentes des utilisateurs, tout en restant fidèle à l’identité Apple.
Siri améliorée pour offrir un meilleur support émotionnel
Un autre aspect intéressant de la stratégie d’Apple est l’accent mis sur le support émotionnel que pourrait apporter la version Gemini de Siri. Bien que la prise en charge émotionnelle pose des défis, Apple espère que la nouvelle approche rendra Siri plus apte à gérer des situations délicates.
Lorsqu’un utilisateur exprime des sentiments de solitude, Siri pourrait fournir des réponses plus engageantes, semblables à celles de ChatGPT.
Cette ambition comporte des risques, car certains chatbots ont déjà montré des limites en matière de support psychologique. La capacité de Siri à réagir adéquatement aux préoccupations des utilisateurs vulnérables sera donc cruciale. Le défi sera de garantir que les interactions avec Siri ne soient pas seulement performantes, mais également sécurisées et appropriées.
Vers une expérience utilisateur améliorée
Lors d’une réunion l’année dernière, Craig Federighi, responsable logiciel chez Apple, a évoqué un des principaux obstacles rencontré au cours de la refonte de Siri. Il a expliqué que le précédent modèle combinait deux systèmes distincts, ce qui a posé des complications non négligeables.
Le but est de conserver des tâches simples tout en intégrant des capacités plus avancées. Siri devrait pouvoir comprendre des demandes contextuellement floues.
En parallèle, il est crucial d’offrir aux utilisateurs une expérience harmonieuse. Combiner des requêtes simples et des interactions complexes est un défi que d’autres géants comme Google et Amazon tentent également de relever. Les détails concernant cette future intégration restent flous, mais il sera passionnant de suivre l’évolution des fonctionnalités à venir.
Calendrier de lancement des nouvelles fonctionnalités
Le rapport précise également que le déploiement des fonctionnalités d’IA basées sur Gemini se fera de manière progressive. Certaines d’entre elles devraient être lancées dès le printemps prochain, tandis que d’autres, comme la mémoire de Siri pour les conversations passées ou des suggestions proactives basées sur l’agenda de l’utilisateur, seront révélées lors de la conférence annuelle des développeurs en juin.
Ce calendrier promet de tenir les utilisateurs en haleine alors qu’Apple avance sur ce chemin innovant.
