| # taz.de -- Professorin über künstliche Intelligenz: „Empathie und Wertsch�… | |
| > Sucht, Schulden, Kindererziehung – bei vielen Problemen können | |
| > Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI? | |
| Bild: Passt gut, so ohne Termin: Online-Beratung | |
| Emily Engelhardt öffnet die Website von OpenAi – dem Unternehmen hinter dem | |
| Chat-Bot [1][ChatGPT], einer künstlichen Intelligenz. „Sind Sie ein | |
| Mensch?“, fragt die Website. Engelhardt lacht und klickt: „Ja“. ChatGPT | |
| öffnet sich, es sieht aus wie Whatsapp. Sie tippt: „Mein Kind schläft | |
| nachts nicht durch. Was kann ich tun?“ – Eine Frage, die so oder so ähnlich | |
| auch bei einer Online-Beratung gestellt werden könnte. ChatGPT antwortet: | |
| „Achten Sie darauf, dass das Kinderzimmer ruhig, dunkel ist und eine | |
| angenehme Temperatur hat.“ Es empfiehlt Vorlesen, Schlaflieder oder | |
| Entspannungsübungen und rät, Handys und Co. eine Stunde vor dem | |
| Schlafengehen auszuschalten. | |
| taz: Frau Engelhardt, wie finden Sie diese Antwort? | |
| Emily Engelhardt: Gar nicht so schlecht. Das sind sicherlich Punkte, die | |
| man Eltern auch in einer Online-Beratung sagen würde. | |
| Was würden Sie anders machen? | |
| Viel mehr nachfragen. Um eine gute Antwort geben zu können, muss ich als | |
| Beraterin ein genaues Bild vom Anliegen haben. Dafür muss ich Rückfragen | |
| stellen. Wie alt ist das Kind? Seit wann schläft es schlecht? Und so | |
| weiter. Das kann der Mensch, und ChatGPT nicht. Noch nicht. | |
| Was macht eine gute Beratung aus? | |
| Gute Beratungsgespräche hängen nicht nur vom Inhalt ab, sondern ganz | |
| wesentlich von der Beziehung, die zwischen der beratenden Person und der | |
| ratsuchenden Person entsteht. In der Online-Beratung muss ich als Beraterin | |
| also Empathie und Wertschätzung verschriftlichen. Aber das gelingt uns bei | |
| Liebesbriefen ja auch. | |
| Welche Vorteile hat eine Beratung per Mail oder Chat? | |
| Solche Beratungsangebote sind anonym, das ist ein großer Vorteil. Man muss | |
| keine Beratungsstelle aufsuchen, wenn man nicht will oder kann. Und man | |
| muss keine Termine vereinbaren, man kann sich einfach hinsetzen und | |
| schreiben. | |
| Das gilt ja auch für ChatGPT. Kann so ein Bot also die Online-Beratung | |
| ersetzen? | |
| Das glaube ich nicht, zumindest nicht zum jetzigen Zeitpunkt. Ich würde | |
| auch versuchen, wegzukommen von der Frage, ob ChatGPT die Online-Beratung | |
| ersetzen kann. Sondern fragen: Wie kann ChatGPT die Online-Beratung | |
| ergänzen? | |
| Und wie? | |
| Man könnte solche Chatbots auf Beratungsseiten einbetten. Sie wären rund um | |
| die Uhr erreichbar, auch wenn – um beim Beispiel zu bleiben – nachts mein | |
| Kind schreit. Oder der Chatbot stellt erste Fragen und vermittelt dann an | |
| die entsprechenden Berater*innen. So wie bei Telefon-Hotlines. Und es | |
| stellt sich die Frage, ob Berater*innen Chatbots nutzen könnten, um | |
| Antworten für Ratsuchende zu formulieren. Man kann ChatGPT sagen, dass es | |
| empathisch antworten soll. Als ich das mal gemacht habe, waren die | |
| Antworten nicht schlecht, vielleicht sogar besser als manche Antworten, die | |
| ich schon von Berater*innen gelesen habe. | |
| Aber ChatGPT macht Fehler. | |
| Solche Antworten müssten natürlich gegengelesen werden. | |
| Online-Beratungen helfen auch bei Themen wie Suizid oder Extremismus. Wie | |
| gefährlich wären hier Bots? | |
| Ich bin da zwiegespalten. Menschen befragen ja schon heute Suchmaschinen | |
| wie Google zu Themen wie Suizid. Und finden dort sehr gefährliche Antworten | |
| auf ihre Fragen. Wir müssen uns fragen: Welche Daten und Informationen | |
| werden in KIs eingespeist? Menschen müssen dort Antworten finden, die ihnen | |
| helfen und nicht schaden. Und wir dürfen den Datenschutz nicht vergessen – | |
| ein unglaublich hohes Gut in der Online-Beratung. Die Soziale Arbeit muss | |
| sich beteiligen und einbringen, damit unsere Adressat*innen von solchen | |
| Entwicklungen profitieren. | |
| 30 Mar 2023 | |
| ## LINKS | |
| [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174 | |
| ## AUTOREN | |
| Oskar Paul | |
| ## TAGS | |
| Interview | |
| Schwerpunkt Künstliche Intelligenz | |
| Beratung | |
| Kriminalität | |
| Technischer Fortschritt | |
| Roboter | |
| Konsum | |
| ## ARTIKEL ZUM THEMA | |
| Falschaussagen der KI: Rufschädigung durch ChatGPT | |
| Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood | |
| fälschlicherweise als Kriminellen. Dagegen will er vorgehen. | |
| KI in Wissenschaft und Journalismus: Mensch und Maschine | |
| Die Angst, die Maschine könne den Mensch ersetzen, ist so alt wie die | |
| Maschine. Bewahrheitet hat sie sich nie, und das wird sie auch bei der KI | |
| nicht. | |
| ChatGPT mit Tücken: Kein Entkommen vor der KI | |
| Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den | |
| Anfang einer rasanten Entwicklung – die auch Risiken birgt. | |
| KI und freies Handeln: Der berechnete Mensch | |
| Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme | |
| nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie? |