À la même époque l'année dernière, j'ai écrit « Le métaverse a besoin d'un système d'exploitation », une analyse approfondie des raisons pour lesquelles l'idée de nouvelles fondations logicielles pour gérer un changement dans la façon dont nous interagissons grâce à l'informatique spatiale était nécessaire. Il a exploré des concepts nouveaux et anciens, mais en fin de compte, la conclusion a été que là où nous nous dirigeons, à bien des égards, il faut repenser la conception du système d'exploitation de fond en comble.
Nous ne pouvons tout simplement pas avancer là où la réflexion est encore bloquée dans la conception du noyau et l’architecture du système d’exploitation du milieu des années 1980 et 1990. Aujourd'hui, avec l'essor de l'IA et des grands modèles linguistiques, la souveraineté des données et le contrôle des utilisateurs, l'identité et les arguments séculaires entre « propriétaire et open source », la question de la nécessité de repenser le système d'exploitation d'hier pour demain refait surface.
Des mises en garde assez importantes : ce qui va suivre est purement conceptuel et basé sur des recherches documentaires dans des domaines dans lesquels je ne suis pas un expert mais avec une conviction fondamentale (qu'elle soit vraie ou fausse) que les choses doivent changer. Je m'en tiens volontairement aux principes fondamentaux de la décentralisation, de l'open source et de la modularité. Je vais tenter d'éviter complètement les questions autour des nouvelles architectures de processeurs et de silicium nécessaires pour vraiment tirer parti des changements, car avouons-le, nous sommes en quelque sorte coincés avec la même réflexion en raison de la conception du système d'exploitation. C'est un double problème.
L'industrie spatiale, malgré toutes ses innovations au cours de la dernière décennie grâce à SpaceX, repose toujours sur des principes logiciels opérationnels qui remontent aux années 1960 et ce n'est pas une base pour construire l'avenir de l'exploration spatiale (« The [Starlink] La constellation compte actuellement plus de 30 000 nœuds Linux (et plus de 6 000 microcontrôleurs) dans l'espace », a déclaré Matt Monson dans une AMA Reddit en 2020. Cela représente beaucoup de code dans une architecture fragmentée conçue à l'origine dans les années 90.
Le paysage des systèmes d'exploitation, en particulier dans le secteur spatial, est caractérisé par une mosaïque de systèmes propriétaires et open source, chacun doté de son propre ensemble d'interfaces et de protocoles. Ce manque de standardisation a conduit à des inefficacités, à une augmentation des coûts et à des complexités dans la conception des missions . Quelque chose de nouveau répondrait directement à ces défis en fournissant une plate-forme cohérente qui garantit la compatibilité et des communications transparentes entre divers composants matériels et logiciels grâce à une approche unique : une combinaison d'architectures décentralisées et RTOS.
Pour les non-initiés, Plan 9 des Bell Labs est un système d'exploitation distribué issu du Computing Science Research Center (CSRC) des Bell Labs au milieu des années 1980 et basé sur les concepts UNIX développés pour la première fois à la fin des années 1960. Depuis 2000, Plan 9 est gratuit et open source. La version officielle finale a eu lieu début 2015. Plan 9 a remplacé Unix en tant que plate-forme principale des Bell Labs pour la recherche sur les systèmes d'exploitation. Il a exploré plusieurs modifications du modèle Unix original qui facilitent l'utilisation et la programmation du système, notamment dans les environnements multi-utilisateurs distribués.
Pourquoi s'en soucier, pourquoi s'en soucier ? Eh bien, parce que les concepts derrière le Plan 9 (et dans une certaine mesure, GridOS également mentionné dans l'article original de Metaverse OS ) ouvrent la voie à un changement radical dans la façon dont nous devons vraiment penser à la conception du système d'exploitation et à l'architecture du noyau, en particulier dans le industrie spatiale.
Décentralisé et modulaire : quelque chose de nouveau doit être conçu pour être décentralisé, ce qui signifie qu'il peut fonctionner sur un réseau distribué, réduisant ainsi les points de défaillance uniques et améliorant potentiellement la résilience et la tolérance aux pannes, essentielles pour les opérations spatiales.
Personnalisation : grâce à une architecture micro-noyau modulaire, il devrait permettre une plus grande flexibilité. Des modules peuvent être ajoutés ou supprimés selon les besoins pour différentes applications ou missions, ce qui le rend hautement adaptable à diverses exigences.
Capacités en temps réel : l'intégration de capacités de traitement en temps réel, cruciales pour les applications sensibles au temps telles que celles trouvées dans l'exploration spatiale et les opérations par satellite, répond à certaines des préoccupations immédiates concernant la décentralisation et la communication entre nœuds.
Piloté par la communauté et Open Source : il doit être construit sur un modèle open source, encourageant les contributions de la communauté et rendant le code source disponible pour révision, ce qui peut favoriser l'innovation et la confiance.
Compatibilité et transition : doit être conçu dans un souci de compatibilité, il prend donc en charge les plates-formes matérielles existantes et peut exécuter des applications héritées au sein de modules sécurisés, facilitant ainsi la transition depuis les systèmes d'exploitation traditionnels.
Ce qu'est Windows en tant que plate-forme de système d'exploitation à usage général et de productivité en ferait une plate-forme logicielle d'exploitation hautement optimisée pour l'avenir de l'humanité dans l'espace, à l'opposé.
Intégration améliorée des données : une nature modulaire permet l'intégration transparente de divers capteurs et sources de données. Cette capacité est cruciale pour SDA, où les données des radars, télescopes, satellites et autres capteurs doivent être synthétisées pour fournir une image complète de l’environnement spatial.
Traitement et analyse des données améliorés : l'aspect décentralisé d'un nouveau système d'exploitation peut faciliter le traitement des données distribuées, réduisant ainsi le temps nécessaire à l'analyse de grandes quantités de données du domaine spatial. Un traitement plus rapide des données permet de réagir plus rapidement aux menaces telles que les débris spatiaux, les manœuvres adverses ou les phénomènes naturels.
Résilience et redondance : pour les opérations militaires, la résilience est essentielle afin qu'une structure décentralisée puisse offrir une plus grande résilience contre les cyber-attaques et les pannes des systèmes. Si un nœud tombe en panne, d'autres peuvent prendre le relais, garantissant ainsi la continuité des opérations SDA.
Interopérabilité : les opérations militaires impliquant souvent des coalitions, un système d'exploitation décentralisé peut fournir des protocoles et des interfaces de communication standardisés, permettant l'interopérabilité entre les systèmes de différents pays et services, ce qui est essentiel pour les efforts conjoints du SDA.
Adaptabilité et évolutivité : la conception modulaire d'un système d'exploitation décentralisé permet une adaptation rapide aux nouveaux capteurs, technologies ou exigences de mission. À mesure que le domaine spatial évolue, il peut également intégrer de nouveaux modules pour répondre aux besoins émergents du SDA sans remanier l'ensemble du système.
Sécurité : grâce à une nouvelle architecture de noyau, les protocoles de sécurité peuvent être étroitement intégrés dans chaque module, fournissant ainsi des mesures de sécurité robustes, vitales pour les opérations militaires. La nature décentralisée signifie également qu’une attaque contre un module est moins susceptible de compromettre l’ensemble du système.
Rentabilité : la standardisation sur un système d'exploitation modulaire peut entraîner des économies en réduisant le besoin de développement de logiciels personnalisés pour chaque nouvelle initiative SDA. Cette efficacité économique peut libérer des ressources pour d’autres besoins critiques de défense.
Parlons maintenant de l’avenir des systèmes d’exploitation comme Windows et Linux dans un monde d’intelligence artificielle. Les systèmes d'exploitation monolithiques ne sont-ils pas redondants dans lesquels nous pouvons utiliser l'IA pour créer des applications, naviguer sur le Web, répondre à des questions complexes, mener des recherches et faire des courses avec des agents automatisés à notre écoute ?
Je le dirais. L'approche actuelle consiste simplement à intégrer les LLM et l'IA dans diverses parties du système d'exploitation ou des plates-formes de productivité plutôt que de concevoir l'IA à partir de zéro pour en faire une partie intégrante . Différence subtile.
Intégration profonde ou modules complémentaires superficiels : les systèmes d'exploitation actuels pourraient intégrer l'IA en tant que couche supplémentaire, améliorant ainsi certaines fonctionnalités. Cependant, cette approche pourrait ne pas exploiter tout le potentiel de l’IA. Une refonte au niveau du noyau pourrait intégrer l’IA plus profondément dans les fonctions principales du système d’exploitation, conduisant à une approche plus intégrale.
Gestion des ressources et planification : les systèmes d'exploitation traditionnels ne sont pas principalement conçus pour les complexités des charges de travail d'IA. La refonte du noyau pourrait permettre une gestion plus efficace des ressources (telles que le CPU, le GPU et la mémoire) pour les processus d'IA, optimisant ainsi les performances et la consommation d'énergie.
Sécurité et confidentialité : l’IA introduit de nouveaux défis en matière de sécurité et de confidentialité. Un noyau repensé en pensant à l’IA pourrait intégrer des protocoles de sécurité plus avancés pour relever ces défis, notamment lors du traitement de grands volumes de données sensibles.
Traitement en temps réel et Edge Computing : les applications d'IA, en particulier celles impliquant l'apprentissage automatique et le traitement de données en temps réel, peuvent bénéficier d'un traitement à faible latence et à grande vitesse. Une refonte au niveau du noyau pourrait optimiser ces processus, en particulier pour les scénarios d'informatique de pointe.
Fonctionnement autonome et auto-réparation : un noyau piloté par l'IA pourrait permettre au système d'exploitation d'effectuer des tâches autonomes d'optimisation et d'auto-réparation, en prédisant et en prévenant les pannes du système et en optimisant les performances sans intervention humaine.
Accélération matérielle : les applications d'IA modernes s'appuient souvent sur du matériel spécialisé comme les GPU et les TPU. Un noyau conçu dans cet esprit pourrait fournir une meilleure prise en charge et une meilleure optimisation pour ce matériel, améliorant ainsi les performances des applications d’IA. Un peu comme ce que Graphcore avait décidé de faire avec son IPU, mais il s'est heurté à l'adéquation du marché des produits et aux exigences élevées en matière d'investissement en capital pour continuer.
Compatibilité descendante et transition : un défi important dans la refonte du noyau pour l'IA consiste à maintenir la compatibilité avec les applications et les systèmes existants. Cette transition nécessiterait une planification minutieuse et une mise en œuvre progressive.
Si nous adoptons une approche révolutionnaire de la conception du système d'exploitation, combinant comme principes fondamentaux une architecture axée sur l'IA, l'intégration de l'IA au niveau du noyau et la décentralisation, une nouvelle architecture de noyau et de système d'exploitation différerait considérablement des systèmes traditionnels comme Windows et Linux. Bien entendu, un tel changement nécessiterait également de surmonter des obstacles importants en termes de développement, d’adoption et de compatibilité avec la technologie et l’infrastructure existantes. Ce n'est pas une mince affaire, mais si vous abordez cela sous l'angle que la construction d'un système d'exploitation comme celui-ci était une stratégie de l'océan bleu, alors soyez patient et entretenez cela tout au long de deux décennies et c'est un jeu et un prix plus importants à viser.
Un exemple parfait en est la sortie de la Wii par Nintendo.
Ce sont des cadres conceptuels et des idées que j'ai lancés et Dieu sait s'ils resteront, mais s'il y a quelqu'un qui hoche la tête en signe d'accord violent - que vous soyez un ingénieur logiciel ou un investisseur - frappez à ma porte et parlons parce que J'ai le désir d'en faire une réalité.