| # taz.de -- NSA-Überwachung: „Wollen wir das wirklich?“ | |
| > Yvonne Hofstetter entwirft Algorithmen. Für private Konzerne oder | |
| > Rüstungsfirmen. Ein Gespräch über die wachsende Macht der Maschinen. | |
| Bild: Sie lachen. Aber sie planen Finsteres, diese Maschinen | |
| taz: Frau Hofstetter, Geheimdienste sammeln gigantische Datenmengen. Gibt | |
| es überhaupt Programme, die all das verarbeiten können? Oder ersäuft die | |
| NSA in der Datenflut? | |
| Yvonne Hofstetter: Mein Team macht seit 18 Jahren Datenanalyse. Es ist ein | |
| Irrglaube, anzunehmen, dass sich mit solch großen Mengen von Informationen | |
| nichts anfangen lässt. | |
| Was lässt sich damit anfangen? | |
| Grundsätzlich gibt es drei Stufen der sogenannten Datenfusion. Auf der | |
| ersten Stufe werden Daten gesammelt und in Hochleistungsdatenbanken | |
| neuester Generation hineingepumpt. Ich spekuliere mal, dass die NSA vor | |
| allem das macht. Aus diesen Sammlungen können Sie mit einer intelligenten | |
| Suchmaschine entsprechende Informationen auslesen. Solche Systeme wurden | |
| schon vor Jahrzehnten fürs Militär entwickelt. | |
| Neu ist, dass die Speicherkapazitäten massiv gewachsen sind. | |
| Hinzu kommt, dass vor 15 Jahren bei Weitem nicht so viel elektronisch | |
| kommuniziert wurde wie heute. Noch nie haben Menschen so viele Daten über | |
| sich erzeugt, nie war ihr digitaler Fußabdruck so detailliert – und der | |
| kann natürlich systematisch digital abgerufen werden. | |
| Was passiert bei der zweiten Stufe der Datenfusion? | |
| Lernende Algorithmen verarbeiten die gespeicherten Daten mit mathematischen | |
| Modellen. In dieser zweiten Stufe erzeugen sie aus den gesammelten Daten | |
| neue Informationen. Beispielsweise werden beim Währungshandel die | |
| Währungspreise in Echtzeit aufgezeichnet. Aus den rohen Preisdaten | |
| errechnet ein Algorithmus dann die Information, dass der Dollar im US-Markt | |
| innerhalb der nächsten 24 Stunden mit einer Wahrscheinlichkeit von 75 | |
| Prozent steigen wird. Diese Information kann dem Händler bei seinen | |
| Entscheidungen helfen. | |
| Aber es handelt noch immer der Mensch – nicht das Programm, der | |
| Algorithmus? | |
| Automatisiert werden diese Entscheidungen erst auf der dritten Stufe. Da | |
| agiert der Algorithmus selbstständig. Und da wird es auch problematisch: | |
| Der Algorithmus fängt an, den Menschen zu vereinnahmen. Im Währungshandel | |
| habe ich Kunden, die keinen Auftrag mehr ohne Algorithmus erteilen. Das | |
| sind Profis, Cheftrader, die sagen: „Ich möchte, dass die Maschine das | |
| macht.“ | |
| Warum diese freiwillige Entmündigung? | |
| Weil der Algorithmus solche Aufgaben besser erledigt als ein Mensch. Ein | |
| Mensch handelt nie optimal unter Unsicherheit – da sind Emotionen im Spiel, | |
| er kann einen schlechten Tag haben. Hinter der Maschine hingegen steht ein | |
| Optimierer, ein Algorithmus, dessen Ziel es ist, die bestmögliche | |
| Entscheidung zu treffen, Profite zu optimieren, Risiken zu minimieren. | |
| Und Sie wehren sich vor allem gegen diese dritte Stufe – die autonomen | |
| Algorithmen … | |
| Nein, dagegen wehre ich mich nicht. Aber ich sage: Man muss Technologie | |
| verantwortungsvoll einsetzen. Momentan werden schon auf der ersten Stufe | |
| Daten in einem Ausmaß gesammelt, dass es schwierig werden wird, die | |
| Informationen zu kontrollieren, wenn eines Tage alle drei Stufen der | |
| Datenfusion komplett industriell ausgebaut sind. Ich möchte, dass wir uns | |
| verständigen: Wollen wir das wirklich? | |
| Wo sind solche eigenständigen Algorithmen schon im Einsatz? | |
| Beim Militär gibt es diese Technologien auf jeglicher Stufe. Überhaupt sind | |
| die meisten dieser Projekte im staatlichen Umfeld angesiedelt – dort gibt | |
| man sich die Zeit, längerfristig zu forschen, die Systeme reifen zu lassen | |
| und dafür die Gelder auszugeben. Häufig sind das Infrastruktur-Megaprojekte | |
| – Wassermanagement, Energiemanagement, Transportoptimierung. | |
| Das erleichtert doch das Leben der Menschen. | |
| Natürlich bin ich überzeugt von dem Potenzial derartiger Algorithmen – | |
| schließlich sehe ich täglich ihre Fähigkeiten. Aber man darf vor dem | |
| Hintergrund der ganzen Effizienz und Potenzialsteigerung den Menschen nicht | |
| außer Acht lassen. | |
| Glauben Sie, dass Ihre Algorithmen sich eines Tages verselbstständigen? | |
| Von der Herrschaft der Maschinen sind wir noch weit weg. Grundsätzlich geht | |
| es um die Frage, wie man Algorithmen nutzt. Was mein Team jetzt häufiger | |
| sieht und was uns beunruhigt, sind die Wünsche mancher Kunden. Da möchte | |
| jemand ein System, das E-Mails und andere persönliche Datenflüsse | |
| überwacht. Wir weisen dann darauf hin, dass die Ausspähung von Mitarbeitern | |
| oder Kunden illegal ist. In den vergangenen 12 Monaten haben wir zwei | |
| Aufträge abgelehnt, die ethisch oder rechtlich nicht vertretbar waren. | |
| Was ist für Sie bedrohlicher – wenn Unternehmen Daten sammeln und auswerten | |
| oder staatliche Stellen? | |
| Ganz klar: wenn die Daten von Privaten gesammelt werden. Wenn sie nicht | |
| mehr bei einer gesetzlich kontrollierten Institution liegen. | |
| Mangel an gesetzlicher Kontrolle: Den Eindruck könnte man bei der NSA | |
| allerdings auch bekommen. | |
| Meine Erfahrung ist, dass Behörden verantwortungsvoller handeln. Ein | |
| Beispiel: Mein Team hat vor 13 Jahren ein System für das Bayerische | |
| Landeskriminalamt gebaut. Verschiedene bayerische Polizeidienststellen | |
| unterhielten Töpfe mit offiziell erhobenen Daten. Diese Daten sollten | |
| fusioniert werden, um Netzwerke von Kriminellen zu analysieren und Hinweise | |
| zu gewinnen, wer möglicherweise neue Taten plant. Aufgrund dieser Hinweise | |
| konnte dann ein Ermittlungsverfahren eingeleitet werden. Das hat gut | |
| funktioniert. Aber es gab riesige Diskussionen. | |
| Weshalb? | |
| Die Daten, um die es ging, waren unter anderem Informationen über illegales | |
| Glücksspiel oder Haftdaten. Die wurden ergänzt und abgeglichen mit Rohdaten | |
| aus dem Bundeskraftfahrtregister und von Einwohnermeldeämtern. Nach der | |
| entsprechenden Verjährungszeit mussten einige der Daten gelöscht werden. | |
| Aber was passiert mit den neuen, von den Rohdaten abgeleiteten | |
| Informationen, die der Algorithmus erzeugt, indem er die erhobenen Rohdaten | |
| miteinander verknüpft? Die Behörden haben viel Wert auf einen | |
| verantwortungsvollen Umgang gelegt. Am Ende wurde der Datenlöschmechanismus | |
| das komplizierteste Modul des Systems. | |
| Der Forscher Viktor Mayer-Schönberger sieht die Gefahr, dass Algorithmen | |
| künftig berechnen könnten, wer schuldig ist und wer nicht. Das Individuum | |
| könnte sich dann nur schwer gegen eine solche Berechnung wehren. | |
| Ja, das ist ein großes Problem. Wenn Sie das weiterdenken: Jemand wirft | |
| falsche Daten über Sie ins Netz – zum Beispiel über ein soziales Netzwerk. | |
| Durch die Datenanalyse werden Sie klassifiziert, und Sie können nichts | |
| dagegen tun. Sie werden einfach abgestempelt als nicht vertrauenswürdig | |
| oder nicht kreditwürdig aufgrund von Daten, deren Herkunft Sie eventuell | |
| nicht einmal kennen. Ich habe relativ wenig Bedenken bei der Datenanalyse | |
| öffentlich verfügbarer allgemeiner Daten – wie Währungspreise. Aber ich | |
| habe riesige Probleme, wenn es bei der Datenfusion um personenbezogene | |
| Daten geht. | |
| Eben klang es noch so, als sei Ihr Problem vielmehr, wer diese Daten | |
| verarbeitet. | |
| Natürlich kommt immer darauf an, in welchen Händen diese Technologien sind. | |
| Wir hatten mal eine Anfrage eines Konzerns, der in der Dritten Welt Öl | |
| fördert. Das Unternehmen wollte für einen bestimmten Landstrich ein | |
| privates geheimdienstliches System aufbauen. Einerseits eine Analyse für | |
| sogenannte terroristische Hotspots – etwa Warnungen, eine bestimmte Region | |
| zu meiden, weil es dort wahrscheinlich Piratenangriffe geben wird. In einem | |
| zweiten Schritt wollte der Konzern aber auch persönliche private | |
| Informationen sammeln – beispielsweise über Mitglieder einer Regierung. Hat | |
| das Staatsoberhaupt Konten in der Schweiz? Etwa um die Regierung erpressen | |
| zu können. Hochgefährlich, wenn mächtige Algorithmen in falsche Hände | |
| geraten. Wir haben das System nicht gebaut. | |
| Haben andere es getan? | |
| Das weiß ich nicht. Es gibt nicht viele Unternehmen, die das Knowhow dazu | |
| haben. Aber es werden immer mehr, denn die Entwicklung schreitet rasch | |
| voran, im Bereich maschinelles Lernen, künstliche Intelligenz. Auch im | |
| Konsumentengüterumfeld wie bei Onlineshops. Wenn ein großer | |
| Online-Buchhändler jetzt ein Team für Machine Learning aufbaut, wissen Sie, | |
| was die vorhaben: Die wollen Kundenprofile besser herausarbeiten. | |
| Viele Empfehlungen, die Onlineshops geben, wirken noch nicht, als sei der | |
| Algorithmus dahinter besonders schlau, als würde er die KundInnen besonders | |
| gut kennen. | |
| Alles eine Frage der Zeit. Warten Sie fünf bis zehn Jahre. Diese Firmen | |
| geben Millionen im Jahr für die Infrastruktur der Speicherung von Daten | |
| aus: Welche Bücher ich kaufe – also was mich interessiert. Mit wie vielen | |
| Kreditkarten ich bei ihnen angemeldet bin – also wie hoch das Budget ist, | |
| das ich pro Jahr für Bücher ausgebe. | |
| Ja gut, aber was sollen sie mir damit antun? | |
| Diese Daten kann ein Konzern mit meiner Peergroup vergleichen und | |
| Vermutungen anstellen, in welcher Gehaltsklasse ich bin, weil bekannt ist, | |
| dass der Mensch einen bestimmten Prozentsatz seines Nettogehalts pro Jahr | |
| in Büchern und Medien anlegt. Da gibt es eine Vielzahl an Dingen, die man | |
| zusammenfügen kann. Und was zusammengefügt werden kann, wird es irgendwann | |
| auch. | |
| Klingt auch noch nicht besonders gefährlich. | |
| Unternehmen sind sehr kreativ. Die Finanzwirtschaft wird sich überlegen, ob | |
| sie nicht lieber auf tagesaktuelle Daten zurückgreifen will, statt auf | |
| Angaben der Schufa. Wer bestellt was? Kann der Kunde das zahlen? Gibt es | |
| rückläufige Überweisungen? Ein Schritt weiter wäre, jemanden zu | |
| beeinflussen, in dem Sie ihm nur bestimmte Informationen geben und andere | |
| vorenthalten. Dann glaubt er, gut informiert zu sein, ist es aber nicht. | |
| Das passiert ja bisweilen schon, bei Facebook zum Beispiel. Aber es könnte | |
| auch ein Staat sein, der so manipuliert. | |
| Lassen sich Algorithmen austricksen, indem man sich zum Beispiel bei Amazon | |
| lauter Dinge anschaut, die man gar nicht haben will? | |
| Es hat keine statistische Relevanz, wenn Sie nur ein paar Mal Musik und | |
| Bücher anklicken, die Sie gar nicht interessieren. Sie müssten schon viel | |
| davon kaufen. Denn der Algorithmus bewertet Aktionen, hinter denen | |
| tatsächlich Geld liegt, höher, als wenn Sie nur durch die Gegend klicken. | |
| Wenn das weiße Rauschen, das Sie erzeugen, nicht viel stärker ist als das | |
| Nutzsignal, kann der Algorithmus das herausrechnen. | |
| Und was ist mit Fake-Accounts, also zum Beispiel E-Mail-Accounts, die man | |
| unter falschem Namen anlegt? | |
| Algorithmen können solche Fake-Accounts ziemlich leicht enttarnen. Wenn Sie | |
| zwei, drei falsche E-Mail-Konten haben, werden Sie sich nicht jedes Mal von | |
| einem Internetcafé aus einloggen. Sondern von zu Hause. Und das war’s: Dann | |
| hat der Algorithmus Ihre IP-Adresse. Und merkt später, dass jemand unter | |
| derselben IP-Adresse drei oder vier E-Mail-Accounts bedient – darunter auch | |
| den mit Klarnamen. Ab dem Zeitpunkt haben Sie keine Fake-Accounts mehr. Das | |
| ist genau das, was Behörden machen: Verbindungsdaten sammeln und | |
| untersuchen. | |
| Ihr Unternehmen lebt doch davon, Algorithmen zu programmieren. Warum warnen | |
| Sie eigentlich vor deren Macht? | |
| Das Verrückte ist: Wenn Sie solche Algorithmen erschaffen, das nimmt Sie | |
| ein. Wenn ich ein Stück künstliche Intelligenz im operativen Betrieb | |
| betrachte, sitze ich da und überlege: Würde ich genauso reagieren? Kunden | |
| sagen, ich würde von unseren Währungshandelsagenten sprechen, als seien sie | |
| meine Haustiere. Aber ich sehe auch die Gefahren. | |
| Oder Sie wollen Ihre Firma einfach als die Guten in diesem Geschäft | |
| positionieren. | |
| Nein. Uns ist wichtig, dass der Mensch im Mittelpunkt steht. Wenn wir | |
| moralische Bedenken haben, lehnen wir Aufträge ab. In letzter Konsequenz | |
| würde ich die Firma sogar schließen, das ist mein Ernst! Mir wurde schon | |
| öfter gesagt, in unserem Unternehmen sehe man schön den Kampf zwischen Gut | |
| und Böse. Auf diesen Kampf würde ich allerdings gern verzichten, denn | |
| unsere Haltung ist mit persönlichen und finanziellen Opfern verbunden. | |
| Nicht dass wir verhungern würden, wir bekommen trotzdem viele interessante | |
| und vertretbare Kundenanfragen. | |
| Der Autor und Wissenschaftler Isaac Asimov hat 1942 Robotergesetze | |
| erfunden, die darauf abzielen, dass ein Roboter Menschen nicht schaden | |
| darf. Algorithmen sind im Grunde Roboter. Gibt es für sie eine Ethik? | |
| Die Technologen beschäftigen sich mit diesen Fragen. Welche Ethik, welche | |
| Moralvorstellungen brauchen wir? Was kann man in die Maschinen hinein | |
| programmieren? Aus der philosophischen Ecke, also von denen, die sich mit | |
| gesellschaftlichen Entwicklungen beschäftigen, kommt hingegen nichts oder | |
| wenig. Die Philosophie sieht offenbar noch nicht, dass eine Sturzwelle an | |
| intelligenten Technologien auf uns zurollt. | |
| Wie könnte so eine Ethik konkret aussehen? | |
| Schwierig zu beantworten. Unter Kollegen haben wir schon darüber | |
| gesprochen, was wir denn machen, wenn diese Maschinen verantwortungslos | |
| eingesetzt werden. Eine Idee wäre, sie zu hacken. Das ist natürlich | |
| illegal, geht nicht. | |
| Also? | |
| Wir müssen uns Gedanken darüber machen, ob wir diesen Maschinen andere | |
| Werte mitgeben. Was optimieren die meisten Algorithmen? Den Nutzen, also | |
| den Profit. Wie in der Spieltheorie wird immer versucht, den eigenen | |
| Vorteil zu maximieren. Und dem anderen zu schaden. | |
| Das ist Kapitalismus. Was wollen Sie daran ändern? | |
| Kooperativ oder kompetitiv – das ist eine Frage, wie wir den Kontext des | |
| Spiels gestalten, in dem Algorithmen operieren. Man kann das so designen, | |
| dass keiner übervorteilt wird. | |
| Wäre es nicht einfacher, jedem Algorithmus fünf ethische Leitsätze | |
| mitzugeben? | |
| Das würde nicht funktionieren. Weil ein anderer Algorithmus, der nicht | |
| kooperativ handelt, solche Leitsätze schnell aufdecken und zum eigenen | |
| Vorteil ausnutzen würde. Noch interessanter werden solche ethischen Fragen | |
| künftig werden, wenn Algorithmen sich noch mehr miteinander verflechten. | |
| Was meinen Sie damit? | |
| Es hängen immer mehr Maschinen am Internet. Computer, Programme, | |
| Algorithmen. Sie kommunizieren unmittelbar oder mittelbar miteinander – | |
| ohne menschliches Zutun. Es gibt Wechselwirkungen und Dynamiken, die der | |
| Mensch nicht programmiert hat und die er nicht beeinflussen kann. Das | |
| nennen wir „emergente Systeme“. | |
| Im Science-Fiction-Spektakel „Terminator“ wird ein Computer, der sich | |
| vernetzt, immer intelligenter und übernimmt die Herrschaft über die Erde. | |
| Das ist tatsächlich die Zukunft? | |
| Nein, emergente Systeme haben kein Bewusstsein, wie wir es kennen. Aber | |
| hinter den Fiktionen steckt immer ein Körnchen Wahrheit. Und hier ist das | |
| eben, dass ein Mensch etwas erschafft und es vernetzt mit dem, was andere | |
| erschaffen. Und aus der Wechselwirkung entsteht eine Dynamik, die niemand | |
| mehr kontrollieren kann. | |
| Nennen Sie uns ein Beispiel? | |
| Eine ganz simple Wechselwirkung: Wenn Sie in Ihrem Smartphone einen | |
| Ortungsdienst angeschaltet haben, weiß der Dienst, wo Sie sind. Und wenn | |
| Sie an der Filiale einer Kaffeehauskette vorbeilaufen, in der Sie kürzlich | |
| etwas gekauft haben, könnte der Lokalisationsdienst einem Programm dieser | |
| Kette das mitteilen, ohne dass Sie ihm das befehlen oder es auch nur | |
| bemerken. Und das Programm wiederum macht Ihnen auf dem Handy ein Angebot: | |
| Umsonst surfen und dazu einen Kaffee. | |
| Klingt nicht nach „Terminator“. | |
| Das war auch nur ein ganz einfaches Beispiel, um das grundsätzliche Prinzip | |
| zu verdeutlichen. Es gibt schon heute mächtigere Algorithmen, erinnern Sie | |
| sich an das System, dass ein Ölförderer bei uns in Auftrag geben wollte. | |
| Die Wechselwirkungen mächtigerer Programme haben auch entsprechend größere | |
| Auswirkungen. Zudem lernen die Maschinen dazu, werden klüger und | |
| widerstandsfähiger. | |
| Wie lernen sie denn? | |
| Aus Abweichungen vom normalen Verlauf, aus ihren Fehlern. Unsere | |
| Handelsagenten lernen auch online, während ihrer Einsätze. Als die Lehman | |
| Bank 2008 in Konkurs ging, war einer der größten US-Währungshedgefonds | |
| unser Kunde. In jener Woche fiel der Euro gegenüber dem Dollar an einem Tag | |
| um etwa 400 Punkte – damals der bislang größte beobachtete Tagesverlust des | |
| Euro. Der Kunde rief an und beschwerte sich: Die Handelsagenten tun ja gar | |
| nichts! | |
| Wie haben Sie reagiert? | |
| Wir haben gesagt: Das liegt wahrscheinlich daran, dass der Algorithmus so | |
| eine Volatilität in der Vergangenheit noch nie gesehen hat. Also tut er | |
| besser nichts, bevor er eine falsche Entscheidung trifft. Er beobachtet und | |
| lernt. Wochenlang ging das so. Hinterher hat der Kunde sich dafür bedankt, | |
| weil er durch den passiv gewordenen Algorithmus Verluste vermieden hat. | |
| Wenn Algorithmen im Handel bessere Entscheidungen treffen als ein Mensch, | |
| warum sollten sie dann nicht auch darüber befinden, ob ein Mensch vor | |
| Gericht schuldig ist oder nicht? | |
| Ein Algorithmus würde die persönlichen Daten abgleichen mit der Gruppe, zu | |
| denen der Angeklagte gehört. Wie bei der Schufa auch: Ihr Score, Ihre | |
| Beurteilung, setzt sich zusammen aus der persönlichen Kontoführung im | |
| Vergleich mit der Gruppe, der Sie anzugehören scheinen. Und es wäre | |
| wirklich problematisch, jemanden in einen Pool zu mischen, wenn es | |
| eigentlich darum geht, ein Individuum zu beurteilen. Außerdem geht es in | |
| der Justiz um Wahrheitsfindung. Die Fähigkeit zur Wahrheit – das ist etwas | |
| typisch Menschliches. Ein Algorithmus hat keine Wahrheitsfähigkeit. Der | |
| löst einfach ein Problem. | |
| 2 Sep 2013 | |
| ## AUTOREN | |
| Meike Laaff | |
| Daniel Schulz | |
| ## TAGS | |
| NSA | |
| Schwerpunkt Überwachung | |
| NSA-Affäre | |
| Roboter | |
| Algorithmen | |
| Ethik | |
| Überwachungsstaat | |
| Roboter | |
| Digitalisierung | |
| Schwerpunkt Überwachung | |
| Pentagon | |
| Internet | |
| Netzbewegung | |
| Schwerpunkt Überwachung | |
| Computer | |
| NSA | |
| NSA | |
| USA | |
| Piratenpartei | |
| BND | |
| ## ARTIKEL ZUM THEMA | |
| Philosophin über Robotherethik: „Technik ist nicht neutral“ | |
| Wie und warum wir Roboter bauen und was wir sie tun lassen, ist immer auch | |
| eine moralische Frage: Janina Loh spricht in Hamburg über Roboterethik. | |
| Digitalisierung von Politik: Vom Start-up zum Staat-up | |
| Steuererklärung, Krebsvorsorge, Bankgeschäfte: In Estland geht das mit | |
| einer ID. Deutschland findet das vorbildlich. Wohin führt das? | |
| Digitalisierung und Überwachung: Wenn Roboter Sheriff spielen | |
| In einem kalifornischen Einkaufszentrum geht ein Roboter auf Streife. Die | |
| KundInnen lieben ihn – trotz seiner Überwachungstechnik. | |
| Menschenverstand für Computer: Denkst du, was ich denke? | |
| Wissenschaftler aus Pittsburgh wollen Computern gesunden Menschenverstand | |
| beibringen. Möglich machen soll das die Bewertung von Bildern. | |
| Ein nationales Internet: Juhu, nur der BND liest mit! | |
| Die Telekom überlegt, Mails von Kunden in Deutschland nicht mehr über das | |
| Ausland zu schicken. Das Überwachungsproblem löst die Idee nicht. | |
| Die Zukunft der Netzbewegung: Was tun! Aber was? | |
| Snowdenleaks könnte für Internetaktivisten sein, was Tschernobyl für die | |
| Atomkraftgegner war. Doch das Ziel ist zu abstrakt – und die Feinde auch. | |
| Überwachungsprogramm der DEA: Die US-Polizei hört mit | |
| Nach Berichten der „New York Times“ finanzierte die US-Drogenpolizei DEA | |
| ein Überwachungsprogramm, das den Zugriff auf Milliarden Telefondaten | |
| ermöglichte. | |
| Geheimdienste mit Hacker-Methoden: USA infizieren Rechner mit Viren | |
| Codename „Genie“: Einem Zeitungsbericht zufolge sollen die US-Geheimdienste | |
| Zehntausende Rechner attackiert, um Zugriff auf ganze Netzwerke zu | |
| bekommen. | |
| Digitale Freiheitsrechte: Mit dem Völkerrecht gegen die NSA? | |
| Nach dem NSA-Skandal will die Bundesregierung das internationale Recht | |
| verschärfen – ohne Plan, ohne Nutzen und mit hohem Risiko. | |
| NSA-Spionage in den USA: Eine Hand wäscht die andere | |
| Die Kundendaten der großen Internetfirmen sind nicht kostenlos zu haben. | |
| Die NSA soll entsprechende finanzielle Entschädigungen geleistet haben. | |
| Debatte US-Außenpolitik: Obama macht nicht alles falsch | |
| Der US-Präsident verhält sich immer angepasster. Warum nur? Er könnte die | |
| ganzen Karrieristen in Washington doch einfach hinwegfegen. | |
| Auf einer Kryptoparty: Online ohne Obama | |
| Wie sie sich gegen Internet-Überwachung wehren können, lernen | |
| Computernutzer auf Kryptopartys - neuerdings auch in Kleinstädten. | |
| Auslandsüberwachung des BND: Grundgesetz gilt auch im Ausland | |
| Wenn der Bundesnachrichtendienst Menschen in Afghanistan abhört, ist das | |
| verfassungswidrig, sagt der Frankfurter Richter Bertold Huber. |