Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- MIT-Professorin Yael Tauman Kalai: „In fünf Jahren werden versch…
> Yael Tauman Kalai hat Grundlagen von Verschlüsselungsmethoden
> mitentwickelt. Sie zeigt, wie wir trotz KI und Quantencomputern mündig
> bleiben können.
Vertrauen ist gut, Beweise sind besser. Mathematische Beweise, die keinen
Zweifel lassen: Diese Informationen sind echt. Hier liest niemand mit.
Jeder Eintrag in der Datenbank ist authentisch. Nichts würde funktionieren
in unserem digitalen Alltag ohne solche Beweise. Onlinebanking,
verschlüsselte Textnachrichten, die Steuererklärung im Internet – alles
undenkbar.
Mit genau solchen Problemen beschäftigt sich Yael Tauman Kalai. Sie ist
Professorin am Massachusetts Institute of Technology (MIT), zählt zu den
führenden Köpfen auf dem Gebiet der Kryptografie – der Kunst,
[1][Informationen so zu verschlüsseln], dass sie nachweisbar vor den Augen
Unbefugter geschützt sind. Einen Namen gemacht hat sie sich vor allem durch
ihre Arbeit an Sicherheitszertifikaten, die nur minimalen Rechenaufwand
verlangen. Das Prinzip ist wie gemacht für Blockchain-Anwendungen [2][und
Kryptowährungen], bei denen jede Transaktion dezentral verifiziert werden
muss.
Yael Tauman Kalai konzentriert sich längst auf neue Aufgaben: das
Entwickeln von Verschlüsselungsmethoden, die auch im Zeitalter von
Quantencomputern sicher sind – [3][denn die Superrechner von morgen
bedrohen die bisher gängigste Methode der Kryptografie]. Ende August ist
Kalai nach Lindau im Bodensee als Gast zum Jahrestreffen der
Wirtschaftsnobelpreisträger gereist. Am Rande der Konferenz nimmt sie sich
Zeit für ein Gespräch mit der taz.
taz: Frau Kalai, die meisten Leute mögen kein Mathe. Verstehen Sie das?
Yael Tauman Kalai: Durchaus. Mathematik an sich ist ja sehr trocken. Da
fragen sich Menschen schnell: Wozu brauche ich das überhaupt? Was ich an
Kryptografie mag, ist, dass es dabei um beinahe philosophische Fragen geht,
die aber eine konkrete Anwendung haben. Was bedeutet es, Dinge zu beweisen?
Wie kann ich etwas tatsächlich wissen? Wie kann ich Dinge vor anderen
verbergen? Das kann ich auch meiner Großmutter leicht erklären. Die
versteht sofort, dass es wichtig ist, den Inhalt einer Nachricht vor
anderen zu verbergen, wenn niemand mitlesen soll. Und der Weg dahin führt
eben über die Mathematik.
taz: Die allerdings sehr komplex ist und für Normalsterbliche kaum zu
begreifen.
Kalai: Mich hat Mathe schon von klein auf fasziniert. Einfach die
Rätselaufgaben: Warum kommt am Ende diese Zahl heraus, wenn ich die eine
mit der anderen multipliziere, dann hier noch etwas abziehe oder dort etwas
hinzufüge? Warum funktioniert das überhaupt? Das hat mich begeistert – aber
gute Noten hatte ich in Mathe nie.
taz: Wie kann das sein?
Kalai: Weil man in der Schule keine Fehler machen darf. Ich dachte zwar
immer, dass ich gut rechnen kann, habe mir aber keine Mühe gegeben, immer
alles zu prüfen, damit es korrekt ist. Also gab es Punktabzug.
taz: Trotzdem gehören Sie heute zu den angesehensten
Mathematiker:innen der Welt. Sind Sie einfach extrem schlau?
Kalai: Das ist ein wirklich bedauerliches Klischee, dieser Gedanke: [4][Oh,
du bist gut in Mathe], dann musst du aber schlau sein! Das ist ja sehr
verbreitet, zumindest in westlichen Ländern, und ich frage mich immer:
Warum? Wenn jemand künstlerisch begabt ist, sagt niemand: Du kannst aber
gut zeichnen – du musst wohl ein Genie sein! Nur bei Mathematik passiert
das. Ich glaube, das verunsichert Kinder. Es gibt ihnen den Eindruck, dumm
zu sein, wenn sie im Rechnen nicht zu den Besten gehören. Also bekommen sie
Angst und wollen noch weniger mit Mathematik zu tun haben. Mathematik mit
Intelligenz gleichzusetzen schadet eher.
taz: Wie sieht Ihre Arbeit aus? Wie funktioniert das, was Sie machen?
Kalai: Nehmen Sie ein ganz simples Beispiel für Verschlüsselung: Wir wollen
eine Nachricht absichern und tauschen dazu Buchstaben aus, auf eine Weise,
die nur wir beide kennen. Aus A wird E, aus B wird F und so weiter. Für
andere ergibt das alles keinen Sinn mehr. Jedenfalls nicht bei einzelnen
Nachrichten. Wenn ein Angreifer die Möglichkeit hat, sehr viele Nachrichten
mitzulesen, kann er Muster erkennen und daraus Rückschlüsse ziehen, wie
sich die Texte entschlüsseln lassen. Das ist meine Aufgabe als
Kryptografin: immer zu überlegen, wie Angreifer vorgehen könnten, um den
Schutz zu knacken. Und natürlich ist das alles viel komplizierter als in
unserem Beispiel.
taz: Was macht Ihnen aktuell am meisten Sorgen?
Kalai: Quantencomputer und künstliche Intelligenz.
taz: Fangen wir [5][mit Quantencomputern] an: Diese Superrechner sind
theoretisch in der Lage, durch schiere Rechenkraft die bisherige gängigste
Verschlüsselungsmethode unbrauchbar zu machen. Aber solche Computer sind ja
noch längst nicht marktreif.
Kalai: Korrekt: Es gibt bisher keine Quantencomputer, die in der Lage sind,
unsere heute üblichen Verschlüsselungsmethoden zu knacken. Aber das könnte
schon in fünf Jahren anders aussehen – und das bedeutet: Nachrichten, die
wir heute verschicken, ließen sich dann rückwirkend entschlüsseln. Man
müsste sie nur bis dahin speichern. Deshalb brauchen wir jetzt schon neue
kryptografische Methoden, die uns effektiv gegen Angreifer aus der Zukunft
schützen.
taz: Gibt es die bereits?
Kalai: Die Risiken, die durch Quantencomputer entstehen, sind seit Langem
bekannt. Deshalb dreht sich seit Jahren ein großer Teil der Forschung
darum, Verschlüsselungsmethoden zu entwickeln, die selbst Quantencomputern
standhalten können. Auch in meiner Arbeit ist das ein Schwerpunkt, und wir
sind jetzt an dem Punkt, dass es quantensichere Lösungen für praktisch alle
Bereiche der Kryptografie gibt. In den USA hat die Behörde NIST, die
technologische Standards setzt, mehrere Verschlüsselungsmethoden für das
Zeitalter der Quantenncomputer offiziell zertifiziert. Was allerdings nicht
heißt, dass unsere Systeme nun im großen Stil quantensicher gemacht werden.
taz: Warum nicht? Sie sagen ja: Eigentlich müsste das dringend passieren.
Kalai: Das Umstellen von der herkömmlichen Verschlüsselung auf eine
quantensichere ist nicht leicht. Es geht häufig um große, sehr komplexe
Systeme – das macht ein Upgrade zur Herausforderung. Aber auch dafür stehen
technische Lösungen bereit. Ob sie implementiert werden, ist eher eine
wirtschaftliche Frage. Wir arbeiten auch noch daran, die Kosten für die
Umstellung zu senken. Aber viele dieser Lösungen für den Umstieg sind schon
jetzt sehr gut und sehr effizient.
taz: [6][Künstliche Intelligenz] ist bereits in unserem Alltag angekommen.
Was beunruhigt Sie daran?
Kalai: Die Technologie ist noch sehr neu, und die Leute nutzen sie bereits,
obwohl KI zahlreiche Risiken mit sich bringt. Die Entwickler kennen die
Schwächen ihrer Systeme. Sie wissen, dass Sprachmodelle nicht immer
verlässlich sind, [7][dass sie halluzinieren] …
taz: … also Dinge erfinden und sie als Fakten darstellen.
Kalai: Aber viele Menschen verlassen sich auf diese Systeme. Sie benutzen
Chatbots wie ChatGPT oder Gemini, stellen Fragen und glauben einfach den
Antworten. Egal, ob sie stimmen. Dabei können falsche Informationen sehr
gefährlich sein – zum Beispiel, wenn es um die Gesundheit geht.
taz: Würde es helfen, wenn wir alle mehr über Mathe wüssten, um die
Algorithmen besser zu verstehen?
Kalai: Natürlich ist ein Verständnis dafür wichtig. Aber ich würde mir vor
allem wünschen, dass in den Unternehmen, die solche KI-Modelle entwickeln,
mehr Leute arbeiten, die gut im Umgang mit anderen Menschen sind. People
skills, das ist etwas, was vielen in der Technikwelt fehlt. Dabei ist es
enorm wichtig, damit die Produkte funktionieren, damit sie uns Menschen
dienen. Ich bin immer beeindruckt von Leuten, die sofort mit anderen eine
Verbindung aufbauen können, die immer zur richtigen Zeit das richtige Wort
finden; die in einen Raum voller fremder Leute kommen und sich nie fehl am
Platz fühlen.
taz: Ihnen geht das anders?
Kalai: Mein Team und ich, wir sind eher die Typen, die in der Schule an der
Seite standen und ausgelacht wurden. Aber zusammen haben wir Spaß. Wenn ich
ins Büro komme, ziehe ich meine Schuhe aus, und wir fangen alle an, Formeln
an die Tafel zu kritzeln. Es hat manchmal etwas Manisches, wenn wir wild
herumschreien: „Das kann ja gar nicht funktionieren!“ – „Doch! Du verst…
es nur nicht…“ – „O ja?“ – „O nein!“ Am Ende sind wir alle völ…
erschöpft, aber es kann hochproduktiv sein.
taz: Wie man an Ihren vielen Auszeichnungen sieht.
Kalai: Die Öffentlichkeit achtet viel zu sehr auf einzelne Namen. Preise
sind immer das Ergebnis von Teamarbeit. Deshalb fühlen sich Auszeichnungen
immer etwas willkürlich an.
taz: Das klingt sehr bescheiden. Der ACM Prize in Computing, den Sie
erhalten haben, gilt als eine der höchsten Auszeichnungen der
Computerwissenschaft.
Kalai: Als meine Kinder hörten, dass ausgerechnet ich diesen Preis bekommen
habe, sagte mein Sohn: „Soll das ein Witz sein?“ Ich habe gefragt, warum,
und meine Tochter meinte: „Na, weil du von Programmieren nicht wirklich
viel Ahnung hast.“ Das fand ich witzig. Aber es stimmt schon, ich bin ja
vor allem Mathematikerin. Code schreiben, das mache ich praktisch nie.
taz: Wie haben Sie Ihren Kindern erklärt, was Sie beruflich machen?
Kalai: Heute sind sie schon älter: 12, 18 und 20 Jahre. Also verstehen sie
alle, womit ich mich beschäftige. Die beiden Älteren studieren sogar selber
Mathematik und Informatik. Aber in der Grundschule sollte meine Tochter mal
aufschreiben, was ihre Eltern beruflich tun, und bei mir stand da: „Sie
arbeitet als Barista im Café.“
taz: Wie kam Ihre Tochter darauf?
Kalai: Wahrscheinlich, weil ich gern zum Nachdenken in ein Café gehe. In
meinem Büro ist einfach zu viel los. Also setze ich mich in einen
Coffee-Shop und lasse mir durch den Kopf gehen, was mich gerade
beschäftigt. Meist geht es um Wege, mathematisch einen bestimmten Beweis zu
erbringen. Dann grüble ich herum: Okay, wie passen all diese Puzzlestücke
zusammen? Manchmal kritzele ich auch auf einem Blatt Papier herum oder
mache lange Spaziergänge. Für mich ist das wie Meditieren. Ich bin nie
allein. Ich habe immer diese Gedanken im Kopf, die mir Gesellschaft
leisten.
taz: In dem Kopf sind auch die Sorgen. KI ist Ihre größte, sagten Sie.
Warum?
Kalai: Es gibt vieles, das mich beunruhigt. Datenschutz zum Beispiel: Die
Leute vertrauen Chatbots ihre größten Geheimnisse an, fragen sie Dinge, die
sie keinem Menschen verraten würden. Was machen die Anbieter mit diesen
Informationen? Wie verhindern wir Missbrauch? Wie stellen wir sicher, dass
KI-Systeme nicht dazu dienen, Terroristen beim Bau von chemischen oder
biologischen Waffen zu helfen? Es gibt etliche solcher Risiken; deshalb
sehe ich künstliche Intelligenz als das wichtigste Problem an, mit dem mich
die Welt derzeit konfrontiert
taz: Wo sehen Sie dabei Ihre Rolle?
Kalai: Die Fragen zu Wirtschaft und Gesellschaft müssen andere beantworten.
Ich versuche nur, dort zu helfen, wo meine Expertise liegt.
taz: Zum Beispiel?
Kalai: Wie verhindern wir etwa, dass eine KI heimlich mit Terroristen
kommuniziert und ihnen Tipps gibt, wie sie eine Bombe bauen können? Für
solche Fragen gibt es Ansätze aus der Kryptografie, mit denen sich die
Risiken verringern lassen. Wir sind es ja gewohnt, in Risiken zu denken. In
meiner Forschung gehen wir immer davon aus, dass es einen Gegner gibt, der
versucht, unser System anzugreifen. Das ist das Erste, was wir
Student:innen beibringen: „Überlegt euch, wie ein Angreifer vorgehen
würde!“ Man erstellt ein Modellbild des Gegners, versucht, seine Ziele zu
verstehen, und entwickelt eine Strategie, die verhindert, dass der
Angreifer Erfolg hat. Und ich glaube, so müssen wir auch mit künstlicher
Intelligenz umgehen: [8][Wir müssen KI als möglichen Gegner sehen und uns
schützen].
taz: Das klingt sehr nach der Angst vorm Terminator.
Kalai: Ich sage nicht, dass die Hersteller Böses im Sinn haben. KI als
Technologie bringt auch enorm viel positives Potenzial mit sich. Aber wenn
ein Chatbot Dinge erfindet, verhält er sich aus meiner Sicht böswillig,
denn er gibt mir falsche Antworten. Davor möchte ich Nutzer:innen
schützen, ihnen klarmachen, dass sie fehlerhafte Informationen von der KI
erhalten.
taz: Wie könnte das aussehen?
Kalai: Was ich mir wünsche, ist eine Art Zertifikat, mit dem wir
rechnerisch nachweisen können, dass die Antwort, die ein KI-Modell liefert,
vertrauenswürdig ist – und bei falschen Antworten gibt es eine Warnung: ein
rotes X oder so etwas, damit Menschen wissen, dass die KI halluziniert hat.
taz: Kann das überhaupt funktionieren?
Kalai: Es ist auf jeden Fall ein sehr kniffliges Problem. In meiner Arbeit
ging es ja bisher sehr stark darum, Beweise für Korrektheit zu erbringen.
Künstliche Intelligenz stellt uns dabei vor ganz neue Herausforderungen,
denn oftmals gibt es keine klar definierten Rechenschritte. Da diese
Systeme auf Basis von Statistik arbeiten, entstehen viele Unschärfen. Wie
verifizieren wir also, dass die KI eine Antwort korrekt berechnet hat? Bei
Faktenwissen mag das noch gehen; in anderen Fällen stellt sich die
grundsätzliche Frage, was „korrekt“ überhaupt bedeutet. Zum Beispiel, wenn
ich einen Chatbot frage, ob ich lieber in Paris oder Peking Urlaub machen
sollte.
taz: Fühlen Sie sich von der Entwicklung überrollt?
Kalai: Ich sehe die große Gefahr, dass eigentlich alles zu schnell geht.
Die Technologie ist noch ganz jung, wir sind gesellschaftlich nicht bereit
für sie und wissen nicht, ob KI wirklich sicher ist. Aber natürlich will
kein Unternehmen auf die Bremse treten, weil jeder, der sich zurücknimmt,
aus dem Rennen ist. Eigentlich bräuchten wir so etwas Ähnliches wie den
Atomwaffensperrvertrag. Unser Ziel müsste sein, dass sich alle Beteiligten
weltweit zurücknehmen und ihre Rechenkraft begrenzen. Das würde Tempo
herausnehmen und uns Zeit geben, mit den Risiken besser umzugehen.
taz: Ist das realistisch? Wer würde sich an solch einer Aktion beteiligen?
Kalai: Natürlich könnten Unternehmen sagen: „Da machen wir nicht mit.“ Ab…
dann gäbe es die Möglichkeit, Sanktionen zu verhängen – so, wie wir es auch
in anderen Fällen tun. Im Grunde haben wir ja alle dasselbe Ziel: Wir
wollen den Nutzen der KI ausschöpfen und zugleich die Risiken minimieren.
Ich glaube, selbst die Unternehmen, die natürlich Gewinne machen wollen,
würden sagen: „Okay, wenn wir uns alle einigen können, an diesem Punkt
aufzuhören, dann hören wir da auf.“ Ich bin gespannt, ob es dazu eine
Initiative aus der Politik gibt. Diskutiert wird das sicher nonstop, da bin
ich sicher. Die Frage ist nur, was dabei herauskommt.
taz: Warum glauben Sie, dass Unternehmen wie OpenAI bereit wären, sich
zurückzunehmen?
Kalai: Ich bin mit vielen Leuten gut befreundet, die in diesen Unternehmen
arbeiten: Anthropic, OpenAI, Google und so weiter. Mein Mann ist selbst als
Computerwissenschaftler bei OpenAI angestellt. Deshalb kenne ich die Szene
sehr gut – und diese Leute haben Angst. Sie machen sich große Sorgen, dass
KI nicht sicher ist. Das ist für mich das wirklich Erschreckende: Die
Menschen, die sich vor dieser Technologie fürchten, sind die Expertinnen
und Experten, die sie entwickeln; die Leute im Silicon Valley selbst. Sie
versuchen zwar, KI sicher zu machen – aber es geht einfach alles sehr, sehr
schnell.
taz: Die Szenarien, mit denen Sie sich beschäftigen, klingen wirklich
beängstigend. Können Sie überhaupt abschalten?
Kalai: Doch, doch. Da habe ich Glück. Es gibt viele Leute auf meinem
Gebiet, denen das schwerfällt. Aber wenn ich mit meiner Familie zusammen
bin, denke ich keinen Moment an meine Arbeit. Da bin ich auch kein Mensch,
der groß auf Sicherheit oder Privatsphäre achtet. Ich schließe nie etwas
ab. Die Haustür, das Garagentor, das Auto – alles bleibt offen. Ich mag
nicht in Angst leben.
taz: Ausgerechnet die Sicherheitsexpertin zeigt sich so ungeschützt?
Kalai: Ich bin bereit, mit solchen Risiken zu leben – es sei denn, es geht
um meine Arbeit. Da dreht sich alles um mathematische Beweise und
intellektuelle Neugierde. Aber im Privatleben gehöre ich eher zu den
Leuten, die von Passwörtern genervt sind und aus Bequemlichkeit am liebsten
„12345“ eingeben würden.
taz: Widerspricht das nicht komplett ihrem Fachwissen?
Kalai: Wissen Sie, privat lebe ich in einer Wohlfühlblase. Denn wenn ich
nicht in dieser Blase leben würde, wäre ich wahrscheinlich depressiv. Die
Welt da draußen ist ja eher düster. Deshalb setze ich mir meine rosarote
Brille auf, wenn ich nach Hause fahre, und tue so, als wäre alles in
Ordnung. Ich habe nun mal nur dieses eine Leben, und ich sehe es als meine
Aufgabe an, dieses Leben zu genießen und auch anderen Menschen Freude zu
bereiten – selbst wenn das komplett im Gegensatz zu dem steht, womit ich
mich beruflich beschäftige. Und auch da arbeite ich ja daran, dass Probleme
gelöst werden, und nicht, dass neue hinzukommen.
18 Oct 2025
## LINKS
[1] /Verschluesselung/!t5016514
[2] /Kryptowaehrung/!t5476505
[3] /Informatiker-ueber-Quantenforschung-/!6101413
[4] /Mathematik-Professorin-im-Interview/!5045656
[5] /Erwartungen-an-Quantencomputer/!5921273
[6] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[7] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[8] /Neue-KI-Strategie/!6118529
## AUTOREN
Karsten Lemm
## TAGS
Schwerpunkt Künstliche Intelligenz
Verschlüsselung
Mathematik
GNS
Schwerpunkt Künstliche Intelligenz
wochentaz
wochentaz
Schwerpunkt Überwachung
Messenger
Alexander Dobrindt
## ARTIKEL ZUM THEMA
KI im Spiegel, Wildschweine in Kroatien: Wer vertraut hier noch wem?
Nicht nur der Spiegel vertraut auf KI. Auch die Meldung über eine
„Wildschwein-Invasion“ zeigt: Medien verlassen sich blind auf die
künstliche Unintelligenz.
Zwischen Euphorie und Dystopie: Es gibt keine künstliche Intelligenz
Die KI-Debatte pendelt zwischen Heilsversprechen und der Sorge vor
Kontrollverlust. Sie offenbart viel über Ängste und Sehnsüchte unserer
Gesellschaft.
Verschlüsselte Messenger: Und jährlich grüßt die Chatkontrolle
Für den Kinderschutz soll selbst verschlüsselte Kommunikation am Handy
kontrolliert werden können. Doch der Widerstand dagegen ist vielfältig.
Rezept für Überwachung mit Chatkontrolle: Grundrechte, geschnetzelt
Breiter Protest verhinderte die Abstimmung über die Chatkontrolle. Was nie
ein gutes Rezept gegen Internetkriminalität war, ist noch nicht vom Tisch.
Wegen Diskussion in der Bundesregierung: Abstimmung der EU-Staaten über Chatko…
Über die umstrittene Überwachung von Chats stimmen die EU-Staaten nun doch
noch nicht kommende Woche ab. Die Bundesregierung hofft auf eine baldige
Einigung.
Gesetz zu Chatkontrolle: Wenn der Staat deine Nacktbilder sieht
Die EU-Mitgliedsstaaten entscheiden kommende Woche über die Chatkontrolle.
Deutschlands Stimme könnte entscheidend sein. Und der Widerstand wächst.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.