Letztes Jahr um diese Zeit habe ich „ The Metaverse Needs An Operating System “ geschrieben, in dem ich mich eingehend mit der Frage befasse, warum die Idee neuer Softwaregrundlagen nötig war, um einen Wandel in der Art und Weise, wie wir durch räumliches Computing interagieren, zu bewältigen. Es wurden neue und alte Konzepte untersucht, aber letztendlich kam man zu dem Schluss, dass die Richtung, in die wir uns bewegen, in vielerlei Hinsicht ein Umdenken im Betriebssystemdesign von Grund auf erfordert.
Wir kommen einfach nicht weiter, wenn das Denken immer noch im Kernel-Design und der Betriebssystemarchitektur aus der Mitte der 1980er und 1990er Jahre feststeckt. Jetzt, mit dem Aufkommen von KI und großen Sprachmodellen, Datensouveränität und Benutzerkontrolle, Identität und den uralten Argumenten „ proprietär vs. Open Source “, stellt sich erneut die Frage, ob das Betriebssystem von gestern für morgen überdacht werden muss.
Ziemlich große Vorbehalte: Was folgt, ist rein konzeptioneller Natur und basiert auf Sekundärrecherchen in Bereichen, in denen ich kein Experte bin, in denen ich jedoch der grundsätzlichen Überzeugung (ob richtig oder falsch) bin, dass sich die Dinge ändern müssen. Ich halte mich bewusst an die Grundprinzipien Dezentralisierung, Open Source und Modularität. Ich werde versuchen, die Fragen zu neuen CPU- und Silizium-Architekturen, die erforderlich sind, um die Änderungen wirklich nutzen zu können, gänzlich zu vermeiden, denn seien wir ehrlich, wir bleiben aufgrund des Betriebssystemdesigns irgendwie bei der gleichen Denkweise hängen. Es handelt sich um ein zweifaches Problem.
Die Raumfahrtindustrie basiert trotz all ihrer Innovationen im letzten Jahrzehnt dank SpaceX immer noch auf betrieblichen Softwareprinzipien, die bis in die 1960er Jahre zurückreichen, und dies ist keine Grundlage für den Aufbau der Zukunft der Weltraumforschung („The [Starlink] „Konstellation verfügt derzeit über mehr als 30.000 Linux-Knoten (und mehr als 6.000 Mikrocontroller) im Weltraum“, sagte Matt Monson in einem Reddit AMA im Jahr 2020. Das ist eine Menge Code, der in einer fragmentierten Architektur steckt, die ursprünglich in den 90er Jahren konzipiert wurde.
Die Betriebssystemlandschaft, insbesondere im Raumfahrtsektor, ist durch ein Flickenteppich aus proprietären und Open-Source-Systemen gekennzeichnet, jedes mit seinen eigenen Schnittstellen und Protokollen. Dieser Mangel an Standardisierung hat zu Ineffizienzen, erhöhten Kosten und Komplexität beim Missionsdesign geführt . Etwas Neues würde diese Herausforderungen direkt angehen, indem es eine zusammenhängende Plattform bereitstellt, die durch einen einzigartigen Ansatz – eine Kombination aus dezentralen und RTOS-Architekturen – Kompatibilität und nahtlose Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten gewährleistet.
Für Uneingeweihte: Plan 9 von Bell Labs ist ein verteiltes Betriebssystem, das Mitte der 1980er Jahre vom Computing Science Research Center (CSRC) bei Bell Labs entstand und auf UNIX-Konzepten aufbaute, die dort erstmals in den späten 1960er Jahren entwickelt wurden. Seit 2000 ist Plan 9 kostenlos und Open Source. Die endgültige offizielle Veröffentlichung erfolgte Anfang 2015. Plan 9 ersetzte Unix als primäre Plattform von Bell Labs für die Betriebssystemforschung. Es wurden verschiedene Änderungen am ursprünglichen Unix-Modell untersucht, die die Verwendung und Programmierung des Systems, insbesondere in verteilten Mehrbenutzerumgebungen, erleichtern.
Warum sollte man sich überhaupt darum kümmern, warum sollte man sich damit beschäftigen? Nun, weil die Konzepte hinter Plan 9 (und in gewissem Maße auch GridOS, die im ursprünglichen Artikel zu Metaverse OS erwähnt wurden) den Weg zu einem radikalen Wandel in der Art und Weise weisen, wie wir wirklich über Betriebssystemdesign und Kernel-Architektur nachdenken müssen, insbesondere im Raumfahrtindustrie.
Dezentralisiert und modular : Etwas Neues sollte dezentral konzipiert sein, was bedeutet, dass es über ein verteiltes Netzwerk betrieben werden kann, wodurch einzelne Fehlerquellen reduziert und möglicherweise die Widerstandsfähigkeit und Fehlertoleranz verbessert werden, was für weltraumgestützte Operationen von entscheidender Bedeutung ist.
Anpassbarkeit : Dank einer modularen Mikrokernel-Architektur soll es eine größere Flexibilität ermöglichen. Module können je nach Bedarf für verschiedene Anwendungen oder Missionen hinzugefügt oder entfernt werden, wodurch es sich hervorragend an verschiedene Anforderungen anpassen lässt.
Echtzeitfähigkeiten : Durch die Integration von Echtzeitverarbeitungsfunktionen, die für zeitkritische Anwendungen, wie sie bei der Weltraumforschung und im Satellitenbetrieb vorkommen, von entscheidender Bedeutung sind, werden einige der unmittelbaren Bedenken hinsichtlich der Dezentralisierung und der Knotenkommunikation berücksichtigt.
Community-gesteuert und Open Source : Es muss auf einem Open-Source-Modell aufbauen, Community-Beiträge fördern und den Quellcode zur Überprüfung verfügbar machen, was Innovation und Vertrauen fördern kann.
Kompatibilität und Übergang : Muss unter Berücksichtigung der Kompatibilität entwickelt werden, unterstützt also vorhandene Hardwareplattformen und kann Legacy-Anwendungen in sicheren Modulen ausführen, was den Übergang von herkömmlichen Betriebssystemen erleichtert.
Was Windows als Allzweck- und Produktivitäts-Betriebssystemplattform ist, würde es im Gegenteil zu einer hochgradig abgestimmten Betriebssoftwareplattform für die Zukunft der Menschheit im Weltraum machen.
Verbesserte Datenintegration : Der modulare Aufbau ermöglicht die nahtlose Integration verschiedener Sensoren und Datenquellen. Diese Fähigkeit ist für SDA von entscheidender Bedeutung, wo Daten von Radar, Teleskopen, Satelliten und anderen Sensoren synthetisiert werden müssen, um ein umfassendes Bild der Weltraumumgebung zu liefern.
Verbesserte Datenverarbeitung und -analyse : Der dezentrale Aspekt eines neuen Betriebssystems kann die verteilte Datenverarbeitung erleichtern und so den Zeitaufwand für die Analyse großer Mengen raumbezogener Daten reduzieren. Eine schnellere Datenverarbeitung führt zu schnelleren Reaktionen auf Bedrohungen wie Weltraummüll, gegnerische Manöver oder Naturphänomene.
Resilienz und Redundanz : Für militärische Operationen ist Resilienz von entscheidender Bedeutung, damit eine dezentrale Struktur eine größere Resilienz gegenüber Cyberangriffen und Systemausfällen bieten kann. Fällt ein Knoten aus, können andere Knoten übernehmen und so einen kontinuierlichen SDA-Betrieb gewährleisten.
Interoperabilität : Da an militärischen Operationen häufig Koalitionen beteiligt sind, kann ein dezentrales Betriebssystem standardisierte Kommunikationsprotokolle und Schnittstellen bereitstellen und so die Interoperabilität zwischen Systemen verschiedener Länder und Dienste ermöglichen, was für gemeinsame SDA-Bemühungen unerlässlich ist.
Anpassungsfähigkeit und Skalierbarkeit : Der modulare Aufbau eines dezentralen Betriebssystems ermöglicht eine schnelle Anpassung an neue Sensoren, Technologien oder Missionsanforderungen. Mit der Weiterentwicklung des Raumfahrtbereichs können auch neue Module integriert werden, um neue SDA-Anforderungen zu erfüllen, ohne das gesamte System zu überarbeiten.
Sicherheit : Mit einer neuen Kernel-Architektur können Sicherheitsprotokolle eng in jedes Modul integriert werden und bieten so robuste Sicherheitsmaßnahmen, die für militärische Operationen von entscheidender Bedeutung sind. Der dezentrale Charakter bedeutet auch, dass ein Angriff auf ein Modul weniger wahrscheinlich das gesamte System gefährdet.
Kosteneffizienz : Die Standardisierung auf ein modulares Betriebssystem kann zu Kosteneinsparungen führen, da der Bedarf an kundenspezifischer Softwareentwicklung für jede neue SDA-Initiative verringert wird. Diese wirtschaftliche Effizienz kann Ressourcen für andere wichtige Verteidigungsbedürfnisse freisetzen.
Lassen Sie uns nun die Zukunft von Betriebssystemen wie Windows und Linux in einer Welt der künstlichen Intelligenz diskutieren. Sind monolithische Betriebssysteme nicht überflüssig, wenn wir KI verwenden können, um Anwendungen zu erstellen, im Internet zu surfen, komplexe Fragen zu beantworten, Recherchen durchzuführen und einen Lebensmitteleinkauf mit automatisierten Agenten zu erledigen, die uns zur Verfügung stehen?
So würde ich sagen. Der Ansatz besteht derzeit lediglich darin, LLMs und KI in verschiedene Teile des Betriebssystems oder der Produktivitätsplattformen zu integrieren , anstatt KI von Grund auf als integralen Bestandteil zu entwickeln. Subtiler Unterschied.
Tiefe Integration vs. oberflächliche Add-Ons: Aktuelle Betriebssysteme könnten KI als zusätzliche Ebene integrieren und so bestimmte Funktionalitäten verbessern. Dieser Ansatz schöpft jedoch möglicherweise nicht das volle Potenzial der KI aus. Eine Neugestaltung auf Kernel-Ebene könnte KI tiefer in die Kernfunktionen des Betriebssystems einbetten, was zu einem ganzheitlicheren Ansatz führen würde.
Ressourcenmanagement und -planung : Herkömmliche Betriebssysteme sind nicht in erster Linie für die Komplexität von KI-Workloads ausgelegt. Eine Neugestaltung des Kernels könnte eine effizientere Verwaltung von Ressourcen (wie CPU, GPU und Speicher) für KI-Prozesse ermöglichen und so Leistung und Energieverbrauch optimieren.
Sicherheit und Datenschutz: KI bringt neue Sicherheits- und Datenschutzherausforderungen mit sich. Ein im Hinblick auf KI neu gestalteter Kernel könnte fortschrittlichere Sicherheitsprotokolle integrieren, um diese Herausforderungen zu bewältigen, insbesondere bei der Verarbeitung großer Mengen sensibler Daten.
Echtzeitverarbeitung und Edge Computing : KI-Anwendungen, insbesondere solche, die maschinelles Lernen und Echtzeit-Datenverarbeitung beinhalten, können von einer Verarbeitung mit geringer Latenz und hoher Geschwindigkeit profitieren. Ein Redesign auf Kernel-Ebene könnte diese Prozesse optimieren, insbesondere für Edge-Computing-Szenarien.
Autonomer Betrieb und Selbstheilung : Ein KI-gesteuerter Kernel könnte es dem Betriebssystem ermöglichen, autonome Optimierungs- und Selbstheilungsaufgaben durchzuführen, Systemausfälle vorherzusagen und zu verhindern und die Leistung ohne menschliches Eingreifen zu optimieren.
Hardwarebeschleunigung : Moderne KI-Anwendungen basieren häufig auf spezieller Hardware wie GPUs und TPUs. Ein unter Berücksichtigung dieser Aspekte entwickelter Kernel könnte eine bessere Unterstützung und Optimierung dieser Hardware bieten und so die Leistung von KI-Anwendungen verbessern. Ähnlich wie das, was Graphcore mit seiner IPU vorhatte, aber es scheiterte an der Produktmarkttauglichkeit und den hohen Kapitalinvestitionsanforderungen, um fortzufahren.
Abwärtskompatibilität und Übergang : Eine wesentliche Herausforderung bei der Neugestaltung des Kernels für KI besteht darin, die Kompatibilität mit vorhandenen Anwendungen und Systemen aufrechtzuerhalten. Dieser Übergang würde eine sorgfältige Planung und eine schrittweise Umsetzung erfordern.
Wenn wir beim Betriebssystemdesign einen revolutionären Ansatz verfolgen und KI-First-Architektur, KI-Integration auf Kernel-Ebene und Dezentralisierung als Kernprinzipien kombinieren, würde sich ein neuer Kernel und eine neue Betriebssystemarchitektur erheblich von herkömmlichen Systemen wie Windows und Linux unterscheiden. Natürlich würde ein solcher Wandel auch die Überwindung erheblicher Hürden in Bezug auf Entwicklung, Akzeptanz und Kompatibilität mit bestehender Technologie und Infrastruktur erfordern. Keine leichte Aufgabe, aber wenn man die Sache unter dem Gesichtspunkt angeht, dass die Entwicklung eines solchen Betriebssystems eine Blue-Ocean-Strategie war, dann ist es ein größeres Spiel und ein größerer Preis, den man anstreben kann, wenn man geduldig ist und dies über ein paar Jahrzehnte hinweg pflegt.
Ein perfektes Beispiel dafür war die Veröffentlichung der Wii durch Nintendo.
Das sind konzeptionelle Rahmenwerke und Ideen, mit denen ich herumgewirbelt habe, und Gott weiß, ob sie bleiben werden, aber wenn irgendjemand da draußen heftig zustimmend nickt – egal, ob Sie ein Software-Ingenieur oder ein Investor sind – schlagen Sie meine Tür ein und lassen Sie uns reden Ich habe den Wunsch, dies Wirklichkeit werden zu lassen.