
Anthropic cherche des repères moraux auprès des grandes traditions religieuses mondiales pour guider le comportement de son modèle Claude. La démarche, engagée depuis plusieurs semaines, s’accélère avec une série de rencontres formelles aux États-Unis.
Cette initiative intervient alors que les grandes entreprises d’IA peinent à définir des principes éthiques universels applicables à leurs systèmes. La question dépasse le cadre technique : il s’agit de savoir comment une machine doit se comporter dans des situations moralement ambiguës.
Des rencontres avec plusieurs traditions religieuses
En amont, Anthropic avait organisé des dîners et réunions avec une quinzaine de responsables chrétiens, cherchant conseils et orientations sur ce qu’il appelle le « développement spirituel » de Claude. La société avait alors annoncé vouloir élargir ces échanges à d’autres courants de pensée.

Cette extension a pris la forme d’un sommet intitulé « Faith-AI Covenant », organisé à New York. Anthropic y a participé aux côtés d’OpenAI. Étaient présents le New York Board of Rabbis, la Hindu Temple Society of North America, l’Église de Jésus-Christ des Saints des Derniers Jours, la Sikh Coalition et l’Archidiocèse orthodoxe grec d’Amérique.
L’événement a été organisé par une ONG suisse, l’Interfaith Alliance for Safer Communities, qui prévoit des rencontres similaires en Chine, au Kenya et aux Émirats arabes unis. La baronne Joanna Shields, membre de la Chambre des lords britannique, est citée comme partenaire clé du projet.
Combler les limites des règles écrites
Anthropic reconnaît dans la documentation interne de Claude, appelée « Claude’s constitution », la difficulté fondamentale de l’exercice. L’objectif affiché est d’amener le modèle à réagir comme une personne dotée de valeurs solides, dans des situations pour lesquelles aucune règle préétablie n’existe.

L’entreprise admet elle-même que ses efforts pour doter Claude de valeurs éthiques suffisantes pourraient échouer. C’est précisément cette incertitude qui motive la recherche de repères extérieurs, notamment auprès d’institutions religieuses ayant développé des cadres moraux sur plusieurs siècles.
Une limite que Silicon Valley commence à reconnaître
Rumman Chowdhury, directrice générale du groupe à but non lucratif Humane Intelligence, résume la situation avec franchise : l’idée qu’il serait possible de dégager des principes éthiques universels applicables à l’IA générative s’est révélée illusoire. C’est ce qu’elle a déclaré à l’Associated Press en marge de l’événement.
Selon elle, le secteur se tourne désormais vers les religions comme moyen de gérer les zones grises éthiques. Cette lecture suggère que la démarche d’Anthropic n’est pas isolée, mais reflète une prise de conscience plus large dans l’industrie.
Une synthèse difficile à évaluer
Il n’est pas certain qu’Anthropic cherche à intégrer les doctrines spécifiques d’une tradition particulière dans Claude. L’objectif semble plutôt d’extraire des principes moraux de haut niveau communs à plusieurs courants, et de montrer que la réflexion éthique derrière le modèle a été conduite sérieusement.
La question de savoir si ces consultations se traduiront par des changements concrets dans le comportement de Claude reste ouverte. Aucune directive religieuse précise n’a été rendue publique à l’issue des rencontres. Le lien opérationnel entre ces échanges et le développement réel du modèle n’a pas non plus été clarifié par Anthropic.
Source : Gizmodo

