Selon Paula Goldman, directrice de l'Environnement éthique et humain chez Salesforce, et Kathy Baxter, architecte principale des pratiques d'IA éthique de Salesforce, le potentiel de l'IA générative est énorme, mais il « n'est pas sans risques ».
Dans un article rédigé conjointement, les deux autrices soulignent qu'il « n'est pas suffisant de fournir les capacités technologiques de l'IA générative. Nous devons donner la priorité à l'innovation responsable afin d'orienter la manière dont cette technologie transformatrice peut et doit être utilisée. Nous devons également veiller à ce que nos collaborateurs, nos partenaires et nos clients disposent des outils nécessaires pour développer et utiliser ces technologies en toute sécurité, avec précision et de manière éthique. »
Lors d'un entretien avec Silicon, Paula Goldman a déclaré : « L'exactitude est l'élément le plus important lorsque l'on met en œuvre l'IA dans un contexte commercial, car il faut s'assurer que les recommandations formulées par l'IA, qu'il s'agisse d'une suggestion, d'une réponse à un client ou d'un e-mail commercial, ne contiennent pas d'inexactitudes. » L'exactitude et la fiabilité des données sont des éléments fondamentaux de toute application IA. Cependant, l'entraînement de modèles d'IA générative est très gourmand. Il nécessite souvent de grandes quantités de données méticuleusement sélectionnées, ce qui peut constituer un obstacle pour certaines applications.
Le sentiment d'autorité qui se dégage des réponses de ChatGPT est en soi une chose à laquelle il faut faire attention. Silvio Savarese avertit que cela peut conduire à ce qu'il appelle un « échec par excès de confiance ». « Le ton posé et souvent professionnel employé par ces modèles les rend d'autant plus impressionnants lorsqu'ils répondent correctement aux questions et répliques. Mais cela rend également leurs échecs très dangereux », explique Silvio Saverese. « Même les experts sont régulièrement pris au dépourvu par leur pouvoir de persuasion. » Il est donc essentiel de contrôler les réponses des modèles d'IA générative. Cela nécessite des mesures de surveillance minutieuse et d'intervention.
Si l'on transpose l'utilisation d'outils tels que ChatGPT à l'échelle d'une entreprise, on comprend aisément à quel point les enjeux peuvent devenir importants. Mais les responsables informatiques sont sur leurs gardes : près de six personnes sur dix (59 %) estiment que les résultats de l'IA générative sont inexacts. Cela souligne l'importance d'aborder la question des « hallucinations », où les modèles d'IA générative, en particulier les modèles de langage de grande taille (LLM), peuvent parfois produire des résultats qui sont factuellement inexacts ou absurdes. Cela rend la vérification minutieuse des faits d'autant plus importante.
Par ailleurs, il est également primordial de savoir comment utiliser l'IA générative de manière éthique, inclusive et responsable. La nature de l'IA générative soulève des questions éthiques liées aux droits d'auteur, à la protection de la vie privée et à la diffusion de fausses informations. Elle nécessite donc un développement et un déploiement responsables. Les biais et l'équité sont également des thèmes cruciaux, car les modèles d'IA générative peuvent perpétuer et amplifier les biais présents dans les données d'entraînement, ce qui conduit alors à des résultats inéquitables ou discriminatoires.
C'est pourquoi Salesforce développe des capacités d'IA approuvée avec des garde-fous et des conseils intégrés pour aider à détecter les problèmes potentiels avant qu'ils ne surviennent. Si le monde veut exploiter le potentiel de l'IA générative, il doit avoir de bonnes raisons de faire confiance à ces modèles à tous les niveaux.
L'IA responsable est également synonyme d'IA durable. L'IA consomme beaucoup plus d'énergie que les charges de travail traditionnelles. 71 % des responsables informatiques reconnaissent que l'IA générative augmente leur empreinte carbone en raison d'une plus grande consommation d'énergie des systèmes informatiques. En effet, les ressources informatiques nécessaires pour entraîner et faire fonctionner des modèles d'IA générative peuvent représenter un défi pour certaines organisations.
Malgré la nécessité d'explorer l'IA générative de manière inclusive et réfléchie, cette technologie recèle un vaste potentiel pour l'avenir de la gestion de la relation client.