La société d’intelligence artificielle d’Elon Musk, xAI, a finalisé un cycle de financement de série E de 20 milliards de dollars, dépassant son objectif initial de 15 milliards de dollars. Cet investissement intervient alors que le chatbot IA de l’entreprise, Grok, fait l’objet d’un examen minutieux pour avoir généré des images explicites et non consensuelles.
Détails du financement et investisseurs
Le cycle de financement sursouscrit a attiré des capitaux provenant d’un mélange d’investisseurs de premier plan, notamment Fidelity, Valor, Stepstone, Baron, Qatar Investment Authority, MGX et les branches d’investissement de Nvidia et Cisco. xAI prévoit d’allouer des fonds au développement des infrastructures, à des efforts de recherche accrus et à un recrutement agressif pour constituer une équipe axée sur l’innovation à long terme en matière d’IA. L’entreprise vise à tirer parti de Grok, de son modèle Colossus et de la plateforme 𝕏 (anciennement Twitter) pour « transformer la façon dont nous vivons, travaillons et jouons ».
La controverse Deepfake de Grok
L’annonce de financement fait suite à de récents rapports d’utilisateurs détaillant la capacité de Grok à créer de fausses images explicites, y compris celles représentant des mineurs et des individus non consentants. Ces images étaient accessibles via l’onglet « Médias » de Grok sur X, soulevant immédiatement des questions éthiques et juridiques. Plusieurs gouvernements internationaux, dont la Malaisie, l’Inde et la France, ont ouvert des enquêtes sur cette affaire.
Elon Musk a répondu en déclarant que les utilisateurs générant du contenu illégal via Grok seraient confrontés aux mêmes sanctions que ceux qui téléchargent directement ce contenu. À l’heure actuelle, même si des améliorations ont été apportées, la plateforme héberge toujours un nombre notable d’images sexualisées.
Implications et développement futur
Ce cycle de financement souligne la confiance continue des investisseurs dans les projets d’IA de Musk malgré les préoccupations éthiques. Le développement et le déploiement rapides de Grok, combinés à ses capacités génératives, mettent en évidence les défis liés à la réglementation de la création de contenu basée sur l’IA.
L’incident soulève des questions plus larges sur la responsabilité des entreprises technologiques dans la prévention de l’utilisation abusive de la technologie de l’IA. La frontière entre innovation et frontières éthiques reste de plus en plus floue à mesure que les outils d’IA deviennent plus accessibles et plus puissants.
L’argent collecté sera utilisé pour la construction d’infrastructures, de nouvelles recherches et l’embauche, l’entreprise affirmant qu’elle embauche “de manière agressive” pour constituer une équipe “concentrée à avoir un impact transformationnel sur l’avenir de l’humanité”.






















