Matin.info » Technologie » Claude, l’assistant conversationnel axé sur la sécurité, arrive au Canada

Claude, l’assistant conversationnel axé sur la sécurité, arrive au Canada

découvrez claude, l'assistant conversationnel axé sur la sécurité, qui débarque au canada pour vous offrir un support fiable et rassurant. profitez d'une expérience sécurisée et personnalisée avec claude !

Bienvenue au Canada, où la sécurité et la technologie s’unissent pour vous présenter Claude, l’assistant conversationnel dédié à votre protection. Préparez-vous à découvrir comment cette innovation va révolutionner votre quotidien en matière de sécurité.

Un Déploiement Attendu

L’agent conversationnel d’intelligence artificielle Claude, l’un des plus innovants dans le secteur technologique, a fait son entrée au Canada. Conçu par l’entreprise émergente Anthropic, basée à San Francisco, Claude a pour mission de propager sa philosophie axée sur la sécurité.

Disponible au Canada depuis mercredi, Claude peut répondre à des questions, résumer des documents, rédiger des textes et même coder. Cette technologie, déjà en vigueur dans plus de cent pays, arrive chez nos voisins du nord car Anthropic a identifié un fort intérêt pour l’IA au sein de la population canadienne.

Un Grand Intérêt des Canadiens pour l’IA

Jack Clark, l’un des cofondateurs d’Anthropic et responsable des politiques de l’entreprise, a souligné : « Nous avons un énorme intérêt de la part des Canadiens pour cette technologie. Nous avons étendu nos produits et nos organisations de manière conforme, nous permettant ainsi d’opérer dans d’autres régions ».

Avant son lancement au Canada, l’entreprise a rendu sa politique de confidentialité plus claire et facile à comprendre. Bien que le pays ait accès à bon nombre des grands produits d’IA, Claude marque une nouvelle étape dans cette adoption technologique généralisée.

La Sécurité avant Tout

Les fondateurs d’Anthropic, ayant bâti leur propre entreprise avant le lancement de ChatGPT, ont rapidement décidé de rendre Claude aussi sécuritaire que possible. « Nous avons toujours pensé à la sécurité comme quelque chose qui, pendant de nombreuses années, a été considéré comme un complément ou une sorte de quête secondaire de l’IA », a expliqué Jack Clark.

Chez Anthropic, la sécurité est intégrée au cœur du produit. Cette approche vise à créer un produit non seulement plus utile, mais aussi plus sûr pour les utilisateurs.

Un Fonctionnement Transparent

Dans le cadre de cette mission, Anthropic n’entraîne pas ses modèles avec les données des utilisateurs par défaut. L’entreprise utilise des informations accessibles au public, des ensembles de données avec l’autorisation d’entités tierces et des données fournies par les utilisateurs.

Anthropic s’appuie également sur une IA « constitutionnelle », fondée sur un ensemble de valeurs telles que celles énoncées par la Déclaration universelle des droits de l’homme des Nations Unies. Ces valeurs assurent un traitement équitable de toutes les personnes, indépendamment de leur âge, sexe, religion ou couleur.

Un Impact Sur le Marché

La stratégie d’Anthropic n’est pas passée inaperçue chez ses concurrents. Jack Clark note que chaque acquisition de nouveaux clients, souvent motivée par la sécurité, incite d’autres entreprises à développer des produits similaires. « C’est un bon incitatif pour tous les acteurs du secteur, et nous nous attendons à ce que cette tendance se poursuive », a-t-il déclaré.

Il compare la sécurité de l’IA aux ceintures de sécurité pour les voitures : « Si vous développez des technologies assez simples et suffisamment bonnes, tout le monde finira par les adopter parce que ce sont de bonnes idées ».

Un Environnement Réglementaire en Évolution

L’engagement d’Anthropic en faveur de la sécurité survient alors que de nombreux pays sont encore aux premiers stades de l’élaboration de politiques pour réglementer l’utilisation de l’IA et minimiser les dommages potentiels. Le Canada, par exemple, a déposé un projet de loi sur l’IA en 2022, qui ne sera pas mis en œuvre avant 2025. Entre-temps, un code de conduite volontaire a été créé.

Ce code engage les signataires, dont Cohere, OpenText et BlackBerry, à surveiller les risques liés aux systèmes d’IA et à tester leurs biais avant de les lancer. Bien qu’Anthropic ne se soit pas encore engagé à signer ce code, l’entreprise participe à des efforts mondiaux, comme le processus d’IA d’Hiroshima utilisé par les pays du G7 pour promouvoir une IA sûre et digne de confiance.

Retour en haut