Une cour d'appel américaine a rejeté la demande d'Anthropic de suspendre son classement par le ministère de la Défense comme un risque dans la chaîne d'approvisionnement, tout en ordonnant d'accélérer le litige. Cette décision intervient à un moment critique où le ministère cherche à sécuriser les technologies d'intelligence artificielle pendant les conflits militaires.
Une cour aux États-Unis a rejeté la demande de la société Anthropic, spécialisée dans l'intelligence artificielle, d'annuler son statut de risque dans la chaîne d'approvisionnement. Cette décision fait suite au refus de l'entreprise de donner un accès illimité à son modèle intelligent 'Claude' au gouvernement américain.
La cour d'appel américaine a rejeté la plainte de la société Anthropic, qui contestait les décisions de l'administration Trump concernant l'intelligence artificielle. Cette décision survient alors que les inquiétudes concernant la régulation des technologies avancées augmentent.
Un tribunal fédéral à Washington a rejeté une demande de suspension de l'interdiction des technologies de la société Anthropic par le Pentagone. L'affaire sera de nouveau examinée le 19 mai prochain lors d'une audience urgente.
La société américaine Anthropic a annoncé mardi que son nouveau modèle d'intelligence artificielle, Claude Methos, est capable de détecter des vulnérabilités dans des milliers d'applications. Cette technologie représente une avancée significative dans le domaine de la cybersécurité.
La société <strong>Anthropic</strong> a annoncé le lancement de son projet <strong>Glasswing</strong> pour lutter contre les cyberattaques croissantes en utilisant des modèles d'intelligence artificielle. Ce projet vise à sécuriser les logiciels critiques en collaboration avec des entreprises technologiques majeures.
La start-up d'intelligence artificielle Anthropic a annoncé des accords majeurs avec Google et Broadcom, renforçant ainsi ses capacités de traitement des données. Cette initiative intervient alors que l'entreprise a atteint un chiffre d'affaires annuel de <strong>30 milliards de dollars</strong>.
La société <strong>Anthropic</strong> a annoncé l'expansion de son partenariat avec <strong>Google</strong> et <strong>Broadcom</strong>, avec des revenus atteignant <strong>30 milliards de dollars</strong>. Cette décision répond à une demande croissante pour des services de calcul avancés.
Broadcom a annoncé la signature de nouveaux accords avec Google pour la production de puces d'intelligence artificielle, ainsi qu'un partenariat élargi avec Anthropic. Cette initiative répond à la demande croissante pour les technologies d'IA.
La société Anthropic a annoncé avoir réalisé des revenus de <strong>30 milliards de dollars</strong>, témoignant de son succès sur le marché. Cette augmentation reflète la croissance rapide du secteur de la technologie et de l'intelligence artificielle.
Broadcom a connu une hausse significative de ses actions après la signature d'accords d'approvisionnement en puces avec Google et Anthropic. Ces accords renforcent la position de l'entreprise sur le marché et ouvrent de nouvelles perspectives de croissance des bénéfices.
Le gouvernement britannique de Keir Starmer cherche à renforcer la présence de l'entreprise américaine Anthropic, spécialisée dans l'intelligence artificielle, au Royaume-Uni. Cette initiative vise à attirer davantage d'investissements dans le secteur technologique en réponse aux tensions récentes aux États-Unis.
La société Anthropic a annoncé ses efforts pour empêcher la diffusion du code client Cloud divulgué, mais elle a rencontré d'importantes difficultés. Ces efforts ont eu des répercussions inattendues sur certains projets légitimes sur la plateforme GitHub.
Le gouvernement britannique cherche à attirer la société Anthropic, spécialisée dans l'intelligence artificielle, à Londres. Cette initiative vise à renforcer la position du Royaume-Uni en tant que centre technologique mondial face à la concurrence accrue entre les pays.
La société américaine "Anthropic" a annoncé un changement radical dans sa politique tarifaire, entraînant une augmentation des prix d'abonnement pour l'outil d'intelligence artificielle "Claude". Ces nouvelles modifications incluent des restrictions sur l'accès à ses modèles par des outils externes.
Anthropic a annoncé l'imposition de frais supplémentaires pour les utilisateurs de sa plateforme Claude Code, suscitant des réactions variées parmi les développeurs. Cette décision vise à renforcer les revenus de l'entreprise face à la concurrence croissante sur le marché de l'intelligence artificielle.
La fuite de code d'un outil d'intelligence artificielle de la société <strong>Anthropic</strong> a suscité un grand débat dans les milieux techniques, avec des experts s'inquiétant de son impact sur l'avenir de cette technologie. Cette situation survient alors que l'industrie de l'IA connaît une croissance rapide, soulevant des préoccupations concernant la sécurité et la vie privée.
Le marché boursier privé connaît une activité sans précédent, avec la société <strong>Anthropic</strong> en tête des transactions, tandis que <strong>OpenAI</strong> recule. Parallèlement, l'introduction en bourse de <strong>SpaceX</strong> devrait avoir un impact significatif sur le marché.
La société Anthropic, spécialisée dans l'intelligence artificielle, a annoncé la création d'un nouveau comité politique pour soutenir les candidats qui adoptent son agenda. Cette annonce intervient à un moment crucial avec l'approche des élections de mi-mandat aux États-Unis.
Anthropic a annoncé l'acquisition de la start-up Coficient Bio, spécialisée dans la biotechnologie, pour un montant de <strong>400 millions de dollars</strong>. Cette acquisition vise à renforcer les capacités d'Anthropic dans le domaine de l'intelligence artificielle et de la biotechnologie.
Une nouvelle étude de la société Anthropic révèle que le modèle d'intelligence artificielle connu sous le nom de Claude contient des représentations numériques d'émotions humaines telles que la joie et la tristesse. Ces résultats pourraient aider les utilisateurs à mieux comprendre le fonctionnement des robots conversationnels.
La société Anthropic a annoncé le retrait de milliers de dépôts sur GitHub suite à une fuite de son code source. Cette action, qui était involontaire, a été suivie d'un retour sur la plupart des notifications de retrait.
La fuite du code source de l'outil Claude Code d'Anthropic a révélé des détails sur la structure de l'outil pour la deuxième fois en un an, suscitant des préoccupations concernant la sécurité des informations de l'entreprise. Cet incident met en lumière les défis auxquels sont confrontées les entreprises technologiques.
Une fuite récente a révélé un nouveau modèle d'intelligence artificielle d'Anthropic, connu sous le nom de "Maïthos", considéré comme le plus avancé à ce jour. Les experts avertissent que ce modèle pourrait considérablement augmenter les risques d'attaques cybernétiques d'ici 2026.
Un juge américain a soulevé des questions sur les motivations du ministère de la Défense des États-Unis (Pentagone) à classer la société Anthropic comme une menace sécuritaire. Ce développement survient alors que les efforts pour développer des technologies d'intelligence artificielle s'accélèrent aux États-Unis.
Dans une décision surprenante, une juge fédérale a rendu un jugement préliminaire en faveur de la société Anthropic, permettant l'utilisation de ses technologies au sein des institutions gouvernementales après un précédent décret interdisant cela. Ce jugement pourrait avoir des implications significatives pour la relation entre le gouvernement et les entreprises technologiques.
Une cour américaine a rendu un jugement en faveur de la société Anthropic, levant l'interdiction imposée par l'administration de Donald Trump sur l'utilisation de ses technologies d'intelligence artificielle. Cette décision marque un changement significatif dans les politiques technologiques aux États-Unis.
Une cour de San Francisco a rendu une décision temporaire suspendant la désignation d'Anthropic comme menace pour la sécurité nationale, permettant ainsi à l'entreprise de continuer à travailler avec le gouvernement américain.
Un juge fédéral américain a rejeté la décision de l'administration Trump de classer la société Anthropic comme une menace pour la sécurité nationale. Cette décision survient après que la société a cessé de collaborer avec le gouvernement en raison de l'utilisation militaire de sa technologie.
Un tribunal américain a décidé de suspendre l'interdiction imposée par l'administration de l'ancien président Donald Trump sur la société d'intelligence artificielle Anthropic, soulignant que cette interdiction pourrait entraîner des pertes financières considérables pour l'entreprise.