Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Fujitsu

Ist KI gefährlicher als die Atombombe?

Die KI-Entwicklung selbst nicht einschränken, sondern die Ausbreitung von KI-Systemen in alle Bereiche menschlicher Tätigkeit eindämmen

Die erstaunlichen Leistungen der jüngsten sogenannten “großen Sprachmodelle” – allen voran die ChatGPT-Reihe von OpenAI – haben die Erwartung geweckt, dass Systeme, die den kognitiven Fähigkeiten des Menschen ebenbürtig sind oder sogar eine “übermenschliche” Intelligenz besitzen, bald Realität werden könnten.

Gleichzeitig warnen Experten für künstliche Intelligenz eindringlich vor den Gefahren, die eine weitere, unkontrollierte Entwicklung der KI für die Gesellschaft oder sogar für das Überleben der menschlichen Rasse selbst mit sich bringen würde.

Handelt es sich dabei um einen bloßen Hype, wie er seit mehr als einem halben Jahrhundert um die KI gemacht wird? Oder müssen jetzt dringend Maßnahmen ergriffen werden, um die weitere Entwicklung der KI zu kontrollieren, auch um den Preis, dass der Fortschritt in diesem revolutionären Bereich behindert wird?

Am 22. März erschien ein offener Brief, der von Experten auf dem Gebiet der künstlichen Intelligenz sowie von prominenten Persönlichkeiten wie Elon Musk unterzeichnet wurde und mit der Feststellung schließt: “Deshalb fordern wir alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen.”

In dem offenen Brief wird die Notwendigkeit eines solchen Moratoriums begründet:

Fortgeschrittene KI könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bedeuten und sollte mit entsprechender Sorgfalt und mit entsprechenden Ressourcen geplant und verwaltet werden. Leider findet dieses Maß an Planung und Management nicht statt, obwohl die KI-Labore in den vergangenen Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt waren, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann.

[Wir] müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Arbeitsplätze automatisieren, auch die, die uns erfüllen? Sollen wir nicht-menschliche Intelligenzen entwickeln, die uns zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?

Eliezer Yudkowsky, der weithin als einer der Begründer der künstlichen Intelligenz gilt, ging in einem Time-Artikel mit dem Titel “Pausing AI Developments Isn’t Enough” noch viel weiter. We Need to Shut It All Down”.

Dieses sechsmonatige Moratorium wäre besser als kein Moratorium…. Ich habe nicht unterschrieben, weil ich denke, dass der Brief den Ernst der Lage unterschätzt….

Viele Forscher, die sich mit diesen Themen befassen, darunter auch ich, gehen davon aus, dass das wahrscheinlichste Ergebnis der Entwicklung einer übermenschlich intelligenten KI unter den derzeitigen Umständen darin besteht, dass buchstäblich jeder auf der Erde sterben wird. Nicht im Sinne von “vielleicht eine entfernte Chance”, sondern im Sinne von “das ist das Offensichtliche, was passieren würde”.

Das Beispiel der Wasserstoffbombe

Das Spektakel der KI-Wissenschaftler, die eine Pause oder gar die Einstellung der rasant fortschreitenden Arbeiten in ihrem eigenen Bereich fordern, erinnert an die Geschichte der Atomwaffen.

Die ungeheure Zerstörungskraft der Atombombe, die die wissenschaftliche Forschung möglich gemacht hatte, veranlasste Einstein zu der berühmten Bemerkung “Ach! Die Welt ist noch nicht bereit dafür.”

1949 weigerten sich einige führende Atomphysiker und andere Veteranen des Atombombenprojekts aus dem Krieg demonstrativ, an dem Projekt zur Entwicklung fusionsbasierter Geräte (“Wasserstoffbomben”) mitzuwirken, deren Energiefreisetzung 1000-mal oder mehr größer sein könnte als bei Atombomben, die auf Kernspaltung basieren.

Der Allgemeine Beratende Ausschuss der US-Atomenergiekommission wurde von Robert Oppenheimer (der oft als “Vater der Atombombe” bezeichnet wird) geleitet. Weitere Mitglieder waren Enrico Fermi, I.I. Rabi, James B. Conant, Lee A. DuBridge, Oliver A. Buckley, Glenn Seaborg, Hartley Rowe und Cyril Stanley Smith.

Auf seiner letzten Sitzung am 30. Oktober 1949 stellte das Komitee fest, dass es durch den Verzicht auf die Entwicklung der Wasserstoffbombe “eine einmalige Gelegenheit sieht, der Gesamtheit des Krieges durch ein Beispiel Grenzen zu setzen und so die Angst zu begrenzen und die Hoffnungen der Menschheit zu wecken.”

Die Mehrheit teilte die Ansicht, dass die Wasserstoffbombe die Zukunft der Menschheit bedroht: “Wir glauben, dass eine Superbombe niemals hergestellt werden sollte. Es wäre viel besser für die Menschheit, wenn die Machbarkeit einer solchen Waffe nicht demonstriert würde, bis sich das gegenwärtige Klima der Weltmeinung ändert.”

Die Minderheit, bestehend aus Fermi und Rabi, erklärte: “Die Tatsache, dass es keine Grenzen für die Zerstörungskraft dieser Waffe gibt, macht ihre Existenz und das Wissen um ihre Konstruktion zu einer Gefahr für die gesamte Menschheit. Sie ist notwendigerweise eine böse Sache, wenn man sie in jedem Licht betrachtet.” (Seaborg war bei der Sitzung nicht anwesend und es wurde keine Abstimmung für ihn aufgezeichnet.)

Präsident Harry Truman überstimmte den Ausschuss und der Rest ist Geschichte.

Natürlich sollte man nicht vergessen, dass die Atomenergie neben ihren militärischen Anwendungen in Form von Spaltreaktoren der Menschheit enorme Vorteile gebracht hat. Die Fusionsenergie, die erstmals in der Wasserstoffbombe in unkontrollierter Form freigesetzt wurde, verspricht einen noch größeren Nutzen.

Allgemeine künstliche Intelligenz

Ähnliches gilt für fortgeschrittene Formen der KI.

Ich nehme an, dass das Analogon zur Wasserstoffbombe im Bereich der künstlichen Intelligenz die Schaffung von Geräten mit “allgemeiner künstlicher Intelligenz” wäre, die alle Fähigkeiten des menschlichen Geistes besitzen und diese sogar um Größenordnungen übertreffen würden.

Beobachter sind sehr unterschiedlicher Meinung darüber, wann das Ziel der GAI erreicht werden könnte. Einige KI-Experten behaupten, dass GAI in naher Zukunft erreicht werden wird, während andere es für eine sehr ferne Aussicht halten, wenn es überhaupt erreichbar ist.

Ich selbst bin der Meinung und habe in der Asia Times argumentiert, dass eine GAI auf der Grundlage digitaler Computertechnologie prinzipiell unmöglich ist.

Diese Schlussfolgerung wird gestützt durch die Ergebnisse von Kurt Gödel – die von anderen weiter ausgeführt wurden – bezüglich der grundlegenden Grenzen jedes Systems, das einer Turing-Maschine entspricht. Dies gilt insbesondere für alle digitalen Computer.

Wie ich in einem anderen Artikel der Asia Times dargelegt habe, wird meine Ansicht durch die Tatsache bestärkt, dass die Funktionsweise der Neuronen im menschlichen Gehirn so gut wie gar nichts mit der Funktionsweise der “Ein-Aus”-Schaltelemente gemein hat, die die Grundlage von Digitalcomputern bilden. Ein einzelnes Neutron ist als physikalisches System um viele Größenordnungen komplexer als jeder Digitalcomputer, den wir in absehbarer Zeit bauen können. Ich glaube, dass die verblüffende Komplexität echter Neuronen, bei denen es sich um lebende Zellen und nicht um träge Schaltelemente handelt, eine wesentliche Voraussetzung für die menschliche Intelligenz ist.

Die Hauptaussage des vorliegenden Artikels lautet jedoch wie folgt: Es ist von entscheidender Bedeutung zu erkennen, dass KI-Systeme nicht an die GAI heranreichen müssen – oder ihr überhaupt ähnlich sein müssen -, um eine große Bedrohung für die Gesellschaft darzustellen.

Wenn “Deep Learning” Amok läuft

Stellen Sie sich das folgende Szenario vor: KI-Systeme, die auf der Grundlage von “Deep Learning” arbeiten, erlangen sukzessiv die Fähigkeit, Menschen durch psychologische Konditionierung und Verhaltensänderung zu manipulieren. Solche Systeme könnten, wenn sie in großem Umfang Zugang zur Bevölkerung erhalten, de facto die Kontrolle über die Gesellschaft übernehmen. Angesichts des oft unvorhersehbaren Verhaltens von auf Deep Learning basierenden Systemen könnte diese Situation katastrophale Folgen haben.

Wir sind von einem solchen Szenario gar nicht so weit entfernt, wie man vielleicht denkt.

In der einfachsten Variante würde die Führung einer Nation absichtlich ein Netzwerk von KI-Systemen mit Fähigkeiten zur Verhaltensänderung in den Medien, im Bildungssystem und anderswo einsetzen, um die Gesellschaft zu “optimieren”. Dieser Prozess könnte anfangs funktionieren, aber bald außer Kontrolle geraten und zu Chaos und Zusammenbruch führen.

Entwicklungen, die zu einer KI-Kontrolle über die Gesellschaft führen, können auch unabhängig von menschlichen Absichten entstehen – durch die “spontane” Aktivität vernetzter KI-Systeme, die ausreichend Zugang zur Bevölkerung haben und über Fähigkeiten zur Verhaltensänderung verfügen (oder diese sukzessiv erwerben).

Wie ich noch zeigen werde, sind viele KI-Anwendungen explizit für die Veränderung des menschlichen Verhaltens optimiert. Dazu gehören Chatbots, die in der Psychotherapie eingesetzt werden. In vielen anderen Fällen, z. B. bei der Erziehung von Kindern, haben KI-Anwendungen starke verhaltensmodifizierende Auswirkungen.

Wie jede andere Technologie hat auch jede KI-Anwendung ihre Vorteile, aber auch ihre potenziellen Gefahren. Im Allgemeinen kann die Leistung dieser Systeme heute noch von Menschen überwacht werden. Eine ganz andere Risikodimension ergibt sich, wenn sie in große “Supersysteme” integriert werden.

Um Missverständnissen vorzubeugen: Ich unterstelle den KI-Systemen nicht den mysteriösen “Willen” oder “Wunsch”, die Gesellschaft zu übernehmen. Ich möchte lediglich andeuten, dass sich das Szenario einer KI-gesteuerten Gesellschaft als unbeabsichtigte Folge der zunehmenden Integration dieser Systeme und der Optimierungskriterien und Trainingsmethoden, auf denen Deep-Learning-Systeme beruhen, entwickeln könnte.

Erstens bedarf es keiner menschenähnlichen Intelligenz, um Menschen zu manipulieren. Dies ist sogar mit recht primitiven Geräten möglich. Diese Tatsache war schon lange vor dem Aufkommen der KI bekannt, auch durch Experimente behavioristischer Psychologen.

Die Entwicklung der KI hat eine völlig neue Dimension eröffnet. Sehr lesenswert ist in diesem Zusammenhang ein kürzlich im Forbes-Magazin erschienener Artikel des bekannten KI-Experten Lance Eliot, in dem er ausführlich auf verschiedene Möglichkeiten eingeht, wie Chatbots und andere KI-Anwendungen Menschen psychologisch manipulieren können, auch wenn dies nicht beabsichtigt ist.

Andererseits ist die absichtliche mentale und Verhaltensmodifikation durch KI-Systeme ein schnell wachsender Bereich mit laufenden Anwendungen in einer Vielzahl von Kontexten.

Beispiele lassen sich leicht aufzählen. Dutzende Milliarden wurden in den Einsatz von KI für Werbung und Marketing gesteckt – Aktivitäten, die ihrem Wesen nach psychologische Manipulation und Profiling beinhalten.

Auch die KI-gestützte Erziehung von Kindern und Erwachsenen – beispielsweise durch fortschrittliche KI-gestützte E-Learning-Systeme – kann als eine Form der Verhaltensänderung betrachtet werden. In der Tat basieren KI-Anwendungen im Bildungsbereich in der Regel auf behavioristischen Modellen des menschlichen Lernens. Fortgeschrittene KI-Lehrsysteme sind darauf ausgelegt, die Reaktionen und Leistungen des Kindes zu optimieren, indem sie ein Profil des einzelnen Kindes erstellen, seine Fortschritte in Echtzeit bewerten und seine Aktivitäten entsprechend anpassen.

Ein weiteres Beispiel ist die Verbreitung von KI-Chatbots, die Menschen dabei helfen sollen, mit dem Rauchen oder mit Drogen aufzuhören, sich richtig zu bewegen und gesündere Gewohnheiten anzunehmen.

Gleichzeitig finden KI-Chatbots zunehmend Anwendung im Bereich der Psychologie. Ein Beispiel dafür ist die App “Woebot”, die “Ihnen helfen soll, die Höhen und Tiefen des Lebens zu bewältigen” und sich insbesondere an Menschen richtet, die unter Depressionen leiden.

Diese Anwendungen stehen erst am Anfang eines tiefgreifenden Wandels der klinischen Psychologie und Psychotherapie.

Die potenziellen Auswirkungen der KI auf das Denken und Verhalten der Bevölkerung werden durch die starke Tendenz der Menschen, unbewusst “menschliche” Eigenschaften auf Systeme wie das GPT-4 von OpenAI zu projizieren, erheblich verstärkt. Dieses Projektionsphänomen eröffnet hoch entwickelten KI-Systemen die Möglichkeit, “persönliche” Beziehungen zu Individuen einzugehen und sich in gewisser Weise in die Gesellschaft zu integrieren.

Wie die rasant zunehmende Ersetzung menschlicher Gesprächspartner durch Chatbots zeigt, sind der Zahl der von KI generierten “virtuellen Personen” praktisch keine Grenzen gesetzt. Dies eröffnet natürlich ein weites Feld für die Verhaltensänderung und Konditionierung der menschlichen Bevölkerung. Der tragische Fall eines belgischen Mannes, der nach einem sechswöchigen Dialog mit dem KI-Chatbot Chai Selbstmord beging, unterstreicht die damit verbundenen Gefahren.

Zusammenfassend kann gesagt werden: Die KI-basierte Technologie zur Verhaltensänderung ist aus der Flasche, und es gibt keine klar definierten Grenzen für ihren Einsatz oder Missbrauch. In den meisten Fällen – so weit wir wissen – stimmen die menschlichen Probanden, deren Verhalten verändert werden soll, freiwillig zu. Es ist jedoch nur ein kleiner Schritt zu Anwendungen, bei denen sich die Versuchspersonen nicht bewusst sind, dass ihr Verhalten verändert wird.

Die Filterung oder Veränderung von Medieninhalten im Internet durch KI-Systeme und KI-gesteuerte Interventionen in sozialen Medien könnten das geistige Leben und Verhalten ganzer Bevölkerungsgruppen beeinflussen. In gewissem Umfang geschieht dies bereits, wie bei der KI-gestützten Identifizierung und Entfernung von “anstößigem Material” aus Facebook und anderen sozialen Medien.

Wir sind höchstens noch Schritte von einer Situation entfernt, in der die Kriterien für die Beurteilung dessen, was “schädlich”, “anstößig”, “wahr” oder “falsch” ist, von KI-Systemen selbst festgelegt werden.

Vorsicht vor dem “Supersystem

In der heutigen Gesellschaft gibt es eine natürliche Tendenz, Datensysteme in ein größeres Ganzes zu integrieren. Dies ist eine gängige Praxis bei der Verwaltung großer Unternehmen und Lieferketten sowie bei der “Digitalisierung” von Behörden und öffentlichen Diensten, die zum Teil durch das Streben nach mehr Effizienz motiviert ist. Trotz des Widerstands gibt es einen natürlichen Drang, den Prozess des Datenaustauschs und der Integration von Informationssystemen weit über die Grenzen einzelner Sektoren hinaus auszudehnen.

Wohin könnte dies führen, wenn die entsprechenden Informationssysteme KI in wesentlicher Weise einbeziehen? Es wäre unter anderem ganz natürlich, KI einzusetzen, um die Leistung eines Mitarbeiters, die von einem KI-System beurteilt wird, entsprechend seinem psychologischen und medizinischen Zustand, der von einem anderen KI-System beurteilt wird, zu optimieren.

Umgekehrt könnten eine psychologische Therapie über einen Chatbot und die Erkennung potenzieller Gesundheitsprobleme durch ein KI-System auf der Grundlage eines KI-Profils des Verhaltens am Arbeitsplatz und der Internetaktivitäten optimiert werden.

Ein weiteres Beispiel: Einsatz von KI zur Optimierung der Kriterien, die von KI-Systemen zum Filtern sozialer Medien verwendet werden, um die Wahrscheinlichkeit sozialer Unruhen zu minimieren, wie sie von einem KI-System bewertet werden. Ähnliches gilt für die Optimierung von KI-Chatbots, die von politischen Führern zum Verfassen ihrer öffentlichen Erklärungen eingesetzt werden.

Wenn man über diese und andere Beispiele nachdenkt, braucht man nicht viel Phantasie, um die enormen Möglichkeiten der Integration von KI-Systemen, die in verschiedenen Bereichen der Gesellschaft eingesetzt werden, in immer größere Systeme zu erfassen.

Am wichtigsten ist, dass die zunehmende Praxis der Integration von KI-Systemen natürlich zu hierarchisch strukturierten “Supersystemen” führt, in denen die übergeordneten Subsysteme die Optimierungskriterien (oder Metriken) sowie die Datenbanken vorgeben, auf deren Grundlage die untergeordneten Systeme “lernen” und arbeiten.

Um zu verstehen, was das bedeutet, sollte man sich vor Augen halten, dass Deep-Learning-basierte KI letztlich nichts anderes ist als eine Kombination aus ausgefeilten mathematischen Optimierungsalgorithmen + großen Computern + großen Datensätzen.

Das betreffende Computerprogramm enthält eine große Anzahl numerischer Variablen, deren Werte in der “Trainingsphase” festgelegt und anschließend im Laufe der Interaktionen des Systems mit der Außenwelt in einem iterativen Optimierungsprozess verändert werden. Wie bei jedem anderen Optimierungsprozess geschieht dies anhand einer Reihe von ausgewählten Kriterien oder Metriken.

Metaphorisch ausgedrückt, definieren diese Kriterien, was das System “will” oder “versucht” zu erreichen.

In einem typischen KI-System dieser Art werden die Optimierungskriterien und die Trainingsdatenbank von den menschlichen Entwicklern des Systems ausgewählt. Schon die Anzahl der internen Parameter, die während des “Trainingsprozesses” erzeugt werden, ist oft so hoch, dass es unmöglich ist, das Verhalten des Systems unter bestimmten Umständen genau vorherzusagen oder gar zu erklären.

Das Vorgängersystem von GPT-4, das GPT-3-System, enthält bereits etwa 175 Milliarden interne Parameter. Da die Funktionsweise des Systems durch die Gesamtheit der Parameter in kollektiver Weise bestimmt wird, ist es im Allgemeinen unmöglich festzustellen, was zu korrigieren ist, wenn sich das System falsch verhält. Auf dem Gebiet der KI wird diese Situation als “Transparenzproblem” bezeichnet.

Heute wird im Bereich der KI viel über das sogenannte “Anpassungsproblem” diskutiert: Wie kann man sicherstellen, dass KI-Systeme, die sich ständig vermehren und weiterentwickeln, an den Zielen, Präferenzen oder ethischen Grundsätzen der Menschen “ausgerichtet” bleiben? Ich würde behaupten, dass das Problem der “Ausrichtung” bei hierarchisch strukturierten Supersystemen praktisch unmöglich zu lösen ist.

Es ist unschwer zu erkennen, dass die Ausbildung von Systemen zunehmend problematisch wird, je höher wir in der Hierarchie aufsteigen. Wie können “richtige” und “falsche” Antworten bestimmt werden, wie es für die Ausbildung dieser höheren Systeme erforderlich ist? Woher bekommen wir eine angemessene Datenbasis? Die Folgen einer bestimmten Reaktion zeigen sich erst durch die Aktivität der untergeordneten Systeme, die von dem übergeordneten System überwacht werden. Das bedarf Zeit. Die Tendenz geht daher dahin, den Ausbildungsprozess abzukürzen – um den Preis, dass die Wahrscheinlichkeit von Fehlern oder sogar völlig unangemessenen Entscheidungen auf den oberen Ebenen der Hierarchie steigt.

Der Leser hat vielleicht die Analogie zu den Schwierigkeiten und Risiken bemerkt, die mit jeder hierarchisch organisierten Form menschlicher Tätigkeit verbunden sind – von einem einzelnen Unternehmen bis hin zur Führungsstruktur einer ganzen Nation. Diese Probleme liegen offensichtlich Tausende von Jahren vor der künstlichen Intelligenz. Heute argumentieren viele, dass KI-Systeme bei der Verwaltung von Unternehmen, Volkswirtschaften – vielleicht sogar der Gesellschaft als Ganzes – besser abschneiden werden als Menschen.

Es besteht kein Zweifel daran, dass KI-Systeme in der Tat in vielen spezifischen Kontexten bessere Leistungen erbringen als Menschen. Außerdem wird die KI ständig verbessert. Doch wohin führt uns der fortlaufende Prozess der Erweiterung und Integration von KI-Systemen – vor allem, wenn er zu immer leistungsfähigeren und umfassenderen Fähigkeiten zur Beeinflussung menschlichen Denkens und Verhaltens führt?

In der Geschichte der Menschheit haben Versuche, eine Gesellschaft in Form eines nach strengen Kriterien funktionierenden Supersystems vollständig zu optimieren, in der Regel zu einer Katastrophe geführt. Nachhaltige Gesellschaften zeichnen sich seit jeher dadurch aus, dass sie einen beträchtlichen Spielraum für unabhängige Entscheidungen bieten, die den angenommenen Kriterien für die Optimierung des Systems eher zuwiderlaufen. Ironischerweise führt die Bereitstellung solcher Freiheitsgrade zu den mit Abstand besten Ergebnissen.

Im Einklang mit dem oben zitierten offenen Brief stimmen die meisten Experten auf dem Gebiet der künstlichen Intelligenz darin überein, dass KI-Anwendungen immer unter einer gewissen menschlichen Aufsicht erfolgen sollten. Allgemeiner ausgedrückt: Die Entwicklung und Anwendung von KI muss von menschlicher Weisheit geleitet werden – wie auch immer man diese definieren mag.

Ich habe hier versucht zu argumentieren, dass die Ausbreitung der auf Deep Learning basierenden KI in immer mehr Bereichen menschlicher Aktivitäten und die Tendenz, solche Systeme in immer größere hierarchische Systeme zu integrieren, ein enormes Risiko für die Gesellschaft darstellen.

In der Tat sollte man sich die Frage stellen: Wenn ein solches Supersystem aus dem Ruder läuft und katastrophale Folgen drohen, wer oder was wird dann eingreifen, um dies zu verhindern?

In Stanley Kubricks berühmtem Science-Fiction-Film “2001: Odyssee im Weltraum” greift der überlebende Astronaut im letzten Moment ein und schaltet das KI-System ab. Aber hätte der Astronaut das auch getan, wenn das KI-System ihn zuvor psychologisch darauf konditioniert hätte, dies nicht zu tun?

Ich glaube nicht, dass es sinnvoll ist, die Entwicklung der KI selbst einzuschränken. Das wäre schädlich und kontraproduktiv. Aber die Weisheit gebietet, dass die Gefahren, die sich aus der raschen Verbreitung von KI-Systemen in praktisch allen Bereichen menschlicher Tätigkeit ergeben, durch angemessene Regulierung und menschliche Aufsicht eingedämmt werden. Das gilt insbesondere für das Entstehen von KI-Supersystemen, wie ich sie hier erörtert habe.

Jonathan Tennenbaum (Ph.D., Mathematik) ist ehemaliger Redakteur des Magazins FUSION und hat über eine Vielzahl von Themen in Wissenschaft und Technik geschrieben, darunter mehrere Bücher über Kernenergie. Er ist auch ein internationaler Mitarbeiter des Instituts für Wissenschaftsphilosophie und -geschichte an der Universität Lissabon und arbeitet an alternativen Ansätzen zur Quantenphysik.