Ilya Sutskever, un scientifique bien connu dans le domaine de l'intelligence artificielle, a fait un atterrissage en force avec sa nouvelle société Safe Superintelligence (SSI) et a reçu un énorme financement d'un milliard de dollars, la société étant évaluée à 5 milliards de dollars. Remarquablement, SSI a réalisé ce financement en seulement trois mois avec une équipe de dix personnes, démontrant ainsi sa forte solidité et son attractivité sur le marché dans le domaine de l'intelligence artificielle. Ce financement a attiré la participation d'institutions d'investissement de renom telles que Andreessen Horowitz et Sequoia Capital, et a confirmé l'énorme potentiel de développement et la demande du marché dans le domaine de la sécurité de l'IA.
Ilya Sutskever, personnalité influente de l'industrie de l'IA, vient d'annoncer que sa nouvelle société SSI (Safe Superintelligence) a finalisé un financement pouvant atteindre 1 milliard de dollars et que la valorisation de l'entreprise a grimpé à 5 milliards de dollars. Il est à noter qu'il n'a fallu que trois mois à SSI pour obtenir cet énorme financement de la part de sa création, avec seulement 10 membres d'équipe.
Le statut d'Ilya Sutskever dans le monde de l'IA ne peut être sous-estimé. Il était autrefois l'une des figures clés d'OpenAI. Aujourd'hui, il a cofondé SSI avec Daniel Gross, ancien chef de projet Apple AI, et Daniel Levy, ancien chercheur OpenAI. Le premier cycle de financement de la société a attiré la participation d'investisseurs renommés tels que Andreessen Horowitz, Sequoia Capital, DST Global, SV Angel et NFDG Investment Partners.
L'objectif de SSI est très clair : parvenir à une superintelligence sûre. Ilya Sutskever a déclaré que la société se concentrerait sur la recherche et le développement et qu'il faudrait peut-être plusieurs années pour commercialiser le produit. Il a souligné que l'entreprise recherchera les meilleurs talents qui correspondent à la culture et à la mission de l'entreprise afin de garantir que l'orientation du développement de la technologie de l'IA soit conforme aux valeurs humaines.
Sur le plan technique, SSI adoptera une approche différente d'OpenAI. Bien qu'Ilya Sutskever n'ait pas révélé trop de détails, il a mentionné que la société explorerait « l'hypothèse de mise à l'échelle » (hypothèse élargie), c'est-à-dire que les performances du modèle d'IA sont directement proportionnelles à l'augmentation de la puissance de calcul. SSI prévoit de travailler avec des fournisseurs de services cloud et des fabricants de puces pour répondre à leurs besoins en puissance de calcul.
Bien que SSI adopte une structure d'entreprise traditionnelle à but lucratif, différente du modèle de « plafonnement des bénéfices » d'OpenAI et de la structure de « fiducie d'intérêt à long terme » d'Anthropic, son engagement en faveur de la sécurité de l'IA n'a pas changé. Ilya Sutskever et son équipe s'efforcent de garantir que le développement de la superintelligence soit rapide et sûr, en évitant le scénario d'une conquête du monde par l'IA, courant dans les films de science-fiction.
À mesure que SSI établissait des équipes de recherche dans la Silicon Valley et à Tel Aviv, en Israël, l'enthousiasme d'Ilya Sutskever pour l'entrepreneuriat grandissait. Il considère cet esprit d’entreprise comme l’ascension d’une nouvelle montagne, différente de son expérience professionnelle précédente chez OpenAI. Bien que son rôle chez OpenAI ait changé en raison d'une série de décisions internes, sa vision de l'avenir de l'IA reste inébranlable.
La création et le succès du financement du SSI ont prouvé une fois de plus l’attrait de la recherche fondamentale sur l’IA pour le marché des capitaux. Alors que la technologie de l’IA devient de plus en plus mature, les investisseurs sont prêts à soutenir les équipes qui s’engagent à résoudre les problèmes de sécurité et d’éthique de l’IA. Grâce à l'exploration approfondie de SSI dans le domaine de l'IA, nous avons des raisons de nous attendre à ce que cette société apporte de nouvelles révélations et possibilités au développement futur de l'IA.
Le développement rapide et l’énorme financement du SSI annoncent une nouvelle avancée dans le domaine de la sécurité de l’IA. Les efforts d'Ilya Sutskever et de son équipe ont fourni une garantie importante pour le développement sain de la technologie de l'intelligence artificielle et ont également fourni une nouvelle référence pour l'orientation future du développement de l'IA.