Ed Zitron vient à nouveau de publier un excellent article dans sa newsletter (en anglais) sur les chances de survie de l’entreprise américaine OpenAI, qui conçoit notamment le modèle de langue ChatGPT.
Dans un contexte de poussée d’inquiétude des investisseurs sur la viabilité économique et légale des modèles d’intelligence artificielle, cet article particulièrement bien recherché s’interroge sur la capacité d’OpenAI à survivre l’éclatement probable et imminent de la bulle de l’intelligence artificielle.
L’entreprise a beau être la start-up la plus en vue dans le domaine (et ce de très très loin !), Ed Zitron identifie et détaille plusieurs défis qui l’attendent dans les prochaines années :
« J’émets l’hypothèse que, pour qu’OpenAI survive plus de deux ans, l’entreprise devra (sans ordre particulier) :
- Naviguer avec succès dans une relation alambiquée et onéreuse avec Microsoft, qui existe à la fois comme une bouée de sauvetage et une source directe de concurrence.
- Lever plus d’argent qu’aucune startup n’en a jamais levé dans l’histoire, et continuer à le faire à un rythme totalement inédit dans l’histoire du financement.
- Réaliser une percée technologique significative qui réduise les coûts de construction et d’exploitation de GPT – ou de tout autre modèle qui lui succédera – d’un facteur de plusieurs milliers de pour cent.
- Réaliser une percée technologique si importante que GPT soit en mesure de prendre en charge de nouveaux cas d’utilisation totalement inédits, qui ne sont actuellement pas possibles ou dont les chercheurs en intelligence artificielle n’ont pas émis l’hypothèse qu’ils pourraient l’être.
- Faire en sorte que ces cas d’utilisation soient capables à la fois de créer de nouveaux emplois et d’automatiser entièrement les emplois existants de manière à valider les dépenses massives en capital et les investissements infrastructurels nécessaires pour continuer. »
L’avenir lui donnera peut-être tort, mais je trouve cette perspective très intéressante. Revoilà le lien vers l’article, dont je recommande chaudement la lecture. 🙂