Großes Interesse für KI (von links): Professor Christoph Reich, Michael Dörflinger (beide Hochschule Furtwangen), Juliane Kugler (SeFo) und Pepper (mit Hut). Fotos: olo
Für unsere Abonnenten:


Ein Termin des SeniorenForums mitten in der Ferienzeit? Riskant? Wohl aber nicht für Schrambergs Seniorinnen und Senioren. Juliane Kugler, Sprecherin des SeFos begrüßte hoch erfreut die annähernd hundert Gäste, die in die Peter-Meyer-Schule gekommen waren, um den Vortrag zum absolut aktuellen Thema „KI –Künstliche Intelligenz im Alltag“ zu hören. Barbara Olowinsky berichtet:








Schramberg.  Professor Dr. Christoph Reich, Wissenschaftlicher Leiter des Instituts für Data Science, Cloud Computing und IT-Sicherheit (IDACUS) in der Fakultät Informatik der Hochschule Furtwangen demonstrierte zunächst an bereits bestehenden und neu entstehenden Beispielen die Anwendung von Künstlicher Intelligenz (KI).

Radio ohne Menschen

Da war zunächst das Radio „bigGPT“, das in Deutschland autonom 24 Stunden Radioprogramm generiert, ausschließlich mit synthetischen Stimmen, KI-generierten Inhalten und den bigGPT Top 40 der meistgestreamten Songs im Netz. Start just am Tag nach dem Vortrag, 8. August 2023! Da ist kein Mensch mehr im Spiel.

Aber auch Bilder lassen sich bereits in Minuten generieren im Stile eines Malers, einer Stilrichtung. KI wird in der Fertigung zum Greifen von Gegenständen bereits eingesetzt, ebenso Erkennen und gegebenenfalls Zuordnen von Menschen. Zur Demonstration richtete Reich die Kamera des Laptops dabei aufs Publikum und zeigte auf der Leinwand- in Prozenten eingestuft- mit unterschiedlicher Zuverlässigkeit (confidence) die Personen an, die sich im Raum befanden, definiert nach typischen Merkmalen eines Menschen.

KI wird bereits seit langem eingesetzt durch Abstraktion bei Posen oder Bewegungen von Sportlern, aber auch in der Physiotherapie. Auch im Spielesektor hat KI schon lange Einzug gehalten mit Computerspielen, Ratespielen und Ähnlichem im Stile „Mensch gegen Computer“.

KI lernt selbstständig

All dies konnte bisher durch Programmieren in zahllosen Einzelschritten im Computer vorgegeben werden, der Unterschied dazu: Beim Maschinellen Lernen (ML) kann die KI durch zahllose Beispiele Daten sammeln und daraus später selbstständig Muster erkennen und anwenden. Zum Training demonstrierte der Referent mit Hilfe einer Spielfigur vor der Kamera und einem Bild einer Katze die Übertragung von Bewegungsabläufen, damit die Animation eines Tierfotos.

Stärken und ….

Im Alltag kommen heutzutage am häufigsten KI-gesteuerte Programme zur Fotobearbeitung zum Zuge, kaum ein veröffentlichtes Foto sei mehr ohne Bearbeitung. (Warnung vor Fake-Fotos) Besonders hervorgehoben wurde die Generierung von Texten mit ChatGPT am aktuellen Beispiel – Eingabe von Stichpunkten von SEFO-Generationen Treff- Datum- Thema- Ort … Ergebnis: Eine autonom generierte Einladung zum Veranstaltungs-Nachmittag mit einigermaßen akzeptablem Standard-Text für „Seniorennachmittag in Schramberg“, allerdings auch nicht mehr!

Schwächen

Da ChatGPT original in Englisch ist, müssen beim Trainieren Fragen und Antworten immer wieder in beide Richtungen übersetzt werden, so können sich Fehler einschleichen, die kaum bemerkt werden, aufmerksames Kontrollieren sei daher immer angesagt.

Hilfe in der Medizin

Eine besondere Anwendung von KI gibt es allerdings schon in der Medizin und wird immer weiter ausgebaut: durch unzählige Aufnahmen von verschiedenen Krankheitsbildern bei Hautkrebs, Augenerkrankungen und vor allem bei Lungenkrebs und der enormen Anzahl von weltweiten Vergleichs-Daten können bereits im Vorfeld Diagnosen erstellt werden.

Das Deep-Learning-Modell “Sybil” wurde so trainiert, dass es als Zweitmeinung anhand eines einzelnen CT-Scans das Risiko für Lungenkrebs einschätzen kann, ehe er wirklich zum Ausbruch kommt. Die Erst-Beurteilung des Radiologen sei aber immer noch maßgebend.

Ethische Probleme

All diese Anwendungen machen deutlich, so Christoph Reich, in welchem Grenzgebiet der Ethik man sich befindet- wie weit geht der Nutzen für den Menschen, wo kann es gefährlich werden, weil unkontrollierbar? Am Beispiel eines fiktiven Unfalls beim autonomen Autofahren wurde deutlich, welche Wertigkeiten Menschen und Dingen zugestanden werden (müssen) in Bezug auf Unfallvermeidung. Eine kaum lösbare Entscheidung.

Bleibt schließlich das Problem, wie kann der Mensch geschützt werden vor Missbrauch durch KI-gesteuerte Programme? In Deutschland gibt es Sicherheitssysteme für ChatGPT, die Datenschutz-Grundverordnung (DSGVO), das führt zu der Herausforderung, dass beim Training von der Eingabe bis zur Ausgabe des Algorithmus alles nachgewiesen werden muss (explainable artificial intelligence AI) und weitere Modelle erst noch entwickelt werden müssen.

Pepper.

Zum Abschluss stellte Michael Dörflinger noch den freundlichen Sozialroboter namens Pepper vor, der bisher erst im Sozialkontakt mit seinen Mitmenschen umgehen, noch nicht eigenständig handeln, aber doch schon für manchen Pflege-Dienst eingesetzt werden kann. Die körperliche Pflege durch Menschen ersetzt er allerdings noch nicht. Pepper hätte sicher gerne sich von den Besuchern winkend verabschiedet, aber leider hatte er keine Kraft – Akku leer! Durchaus menschlich!

Aufrufe: 10.