Actualité

IA

Apple attaquée par des actionnaires sur ses pratiques en matière d’IA

Par Laurence - Publié le

Même si elle s'en sort plutôt bien cette semaine en pleine crise boursière provoquée par DeepSeek, Apple pourrait être confrontée à un examen approfondi de ses pratiques en matière d’intelligence artificielle à la suite d’un dépôt officiel auprès de la Securities and Exchange Commission. Cette question sera étudiée lors de la prochaine assemblée générale des actionnaires d’Apple, prévue le 25 février.

Apple attaquée par des actionnaires sur ses pratiques en matière d’IA


Une demande de transparence sur l’utilisation des données



Ce n'est pas la première fois que le National Legal and Policy Center soumet des questions sensibles concernant les pratiques de l’entreprise. Par exemple en 2024, le NLPC a déposé une proposition demandant à Apple de produire un rapport analysant la cohérence entre sa politique en matière de droits de l’homme et ses actions, notamment dans des pays comme la Chine et la Russie. Apple avait tenté d’exclure cette proposition, arguant que le NLPC s’immisçait dans la gestion quotidienne de l’entreprise et que les mesures demandées étaient déjà en place. Cependant, la SEC avait rejeté la demande de Cupertino, permettant ainsi aux actionnaires de voter sur la proposition lors de l’assemblée annuelle.

Cette année, le NPLC a donc soumis une proposition exhortant Apple à divulguer comment l’entreprise acquiert et utilise des données externes pour entraîner ses modèles d’IA. Cette initiative met en avant les risques potentiels liés à la confidentialité des données et aux droits de propriété intellectuelle, soulevant ainsi des préoccupations sur l’éthique de la firme en matière d’intelligence artificielle.

Apple attaquée par des actionnaires sur ses pratiques en matière d’IA


La proposition, répertoriée sous le numéro 4 dans les documents de procuration 2025 d’Apple, demande à l’entreprise de produire un rapport détaillant :
• Les risques liés à l’utilisation de données obtenues de manière discutable dans l’entraînement des modèles d’IA.
• Les garanties mises en place pour assurer la confidentialité des utilisateurs dans le développement de ces technologies.
• Les mesures prises par Apple pour s’assurer que les résultats générés par son IA respectent les normes légales et éthiques.

Le NLPC met en avant le fait qu’Apple, qui a construit une grande partie de sa réputation sur la protection de la vie privée, devrait être exemplaire en matière d’éthique de l’IA.

Des partenariats controversés avec OpenAI et Google



La critique du NLPC ne se limite pas aux pratiques internes d’Apple, mais s’étend également à ses partenariats. L’organisation accuse Apple d’externaliser certaines pratiques jugées contraires à l’éthique en collaborant avec des entreprises comme Google et OpenAI.

L’entreprise de Cupertino entretient depuis longtemps un partenariat avec Google, faisant du moteur de recherche d’Alphabet l’option par défaut sur ses appareils, en échange d’un accord financier estimé à 25 milliards de dollars par an. Cette relation, déjà pointée du doigt dans le cadre d’enquêtes antitrust, permettrait à Google de collecter des quantités massives de données sur les utilisateurs d’Apple.

Apple explore également des collaborations avec d’autres géants de la tech. Après avoir annoncé un partenariat avec OpenAI pour intégrer ChatGPT à ses produits, la firme envisagerait aussi une collaboration avec Google pour y intégrer Gemini, son modèle d’IA.

Une approche prudente mais des inquiétudes persistantes



Jusqu’à présent, Apple a adopté une stratégie plus prudente que ses rivaux en matière d’intelligence artificielle. L’entreprise met en avant son approche basée sur l’intelligence sur l’appareil et l’apprentissage automatique centré sur la confidentialité, plutôt que sur de vastes modèles IA hébergés dans le cloud.

Avec son modèle Private Cloud Compute, Apple affirme que les données traitées via son intelligence artificielle ne sont pas stockées durablement ni liées aux comptes des utilisateurs. Cependant, ces garanties de confidentialité s’estompent lorsque l’IA repose sur des intégrations tierces, comme ChatGPT d’OpenAI ou potentiellement Gemini de Google à l’avenir.

Si Apple assure que l’activation de ces services se fait avec le consentement explicite des utilisateurs, les actionnaires veulent en savoir plus sur la manière dont l’entreprise prévoit d’encadrer ces pratiques à long terme.

Quel avenir pour l’IA chez Apple ?



Cette proposition de transparence marque une nouvelle pression sur Apple, qui se positionne de plus en plus dans le secteur de l’intelligence artificielle. L’issue du vote des actionnaires lors de l’assemblée générale du 25 février pourrait influencer la politique de l’entreprise en matière d’IA et de gestion des données personnelles.

L’enjeu est de taille pour Apple : maintenir son image d’entreprise respectueuse de la vie privée tout en développant des technologies d’intelligence artificielle compétitives face à des acteurs comme Google, Microsoft et Meta.