Claude : une IA qui vous veut du bien, par Anthropic
Par June Cantillon - Publié le
Il n'y a pas que ChatGPT ou Bard dans la vie, d'autres IA sont sur la brèche et veulent profiter de l'intérêt grandissant des éditeurs pour se tailler une part du gâteau.
Anthropic est une firme spécialisée dans l'intelligence artificielle fondée par d'anciens employés d'OpenAI (qui vient de lancer GPT-4 et à qui l'on doit ChatGPT) et soutenue, entre autres, par un investissement de 300 millions de dollars de la part de Google en février dernier. La société jouit ainsi d'une belle aura et plusieurs logiciels s'appuient déjà sur sa technologie, comme DuckDuckGo, Robin AI, Notion HQ ou encore Quora. Le générateur de texte de la firme répond (littéralement) au doux nom de Claude et les entreprises qui l'emploient indiquent que l'outil est
La firme s'appuie sur un discours fleurant bon l'équipe marketing inspirée en précisant que Claude a été conçu en se basant sur 10 principes fondamentaux (sans en donner les détails) afin d'en faire une
Si le produit pourrait donc séduire par son côté éthique, le générateur de texte n'a rien de magique (tout comme ses concurrents bien évidemment) et reste faillible (tout comme l'humain cette fois). Le porte -paroles de la firme précise d'ailleurs :
Une IA éthique, ou une IA pathétique ?
Anthropic est une firme spécialisée dans l'intelligence artificielle fondée par d'anciens employés d'OpenAI (qui vient de lancer GPT-4 et à qui l'on doit ChatGPT) et soutenue, entre autres, par un investissement de 300 millions de dollars de la part de Google en février dernier. La société jouit ainsi d'une belle aura et plusieurs logiciels s'appuient déjà sur sa technologie, comme DuckDuckGo, Robin AI, Notion HQ ou encore Quora. Le générateur de texte de la firme répond (littéralement) au doux nom de Claude et les entreprises qui l'emploient indiquent que l'outil est
moins susceptibles de produire des réponses toxiqueset qu'il est
plus facile à utiliserque ceux de la concurrence.
Have you met Claude ?
La firme s'appuie sur un discours fleurant bon l'équipe marketing inspirée en précisant que Claude a été conçu en se basant sur 10 principes fondamentaux (sans en donner les détails) afin d'en faire une
constitutional AI, un générateur de texte ayant une certaine éthique, qui sera moins à même de produire des propos choquants ou d'
hallucineren inventant des propos erronés, le tout grâce à un entraînement spécifique (basé sur les fameux 10 principes). Selon Richard Robinson, dirigeant de Robin AI :
Nous utilisons Claude pour évaluer des parties particulières d'un contrat et pour suggérer un nouveau langage alternatif plus convivial pour nos clients . Nous avons découvert que Claude est très doué pour comprendre le langage, y compris dans des domaines techniques comme le langage juridique. Il est également très utile pour rédiger, résumer, traduire et expliquer des concepts complexes en termes simples.
Si le produit pourrait donc séduire par son côté éthique, le générateur de texte n'a rien de magique (tout comme ses concurrents bien évidemment) et reste faillible (tout comme l'humain cette fois). Le porte -paroles de la firme précise d'ailleurs :
Le défi consiste à créer des modèles qui n'hallucinent jamais mais qui sont toujours utiles - vous pouvez vous retrouver dans une situation difficile où le modèle figure qu'un bon moyen de ne jamais mentir est de ne rien dire du tout, il y a donc un compromis sur lequel nous travaillons. Nous avons également fait des progrès dans la réduction des hallucinations, mais il reste encore beaucoup à faire.