Wenn man den Medienberichten der letzten Wochen Glauben schenken darf, sollten wir zumindest alle Angst vor Daten haben bzw. vor dem, was man mit einer großen Datenmenge anfangen kann. So wurde in Kolumbien bereits getestet, ob sich ChatGPT für juristische Belange eignet. KI-generierte Kunst läutet das Ende menschlicher Kunstschaffender ein. Im Bildungsbereich wird heiß diskutiert, ob dieses System in den Unterricht integriert oder gar verboten werden sollte und selbst vor der Religion macht diese Technik nicht Halt.
Werden wir jetzt alle in unseren Jobs von KI ersetzt? Werden selbst riesige Konzerne wie Alphabet (Mutter von Google) die kommenden Jahre nicht überleben? Schließlich hat ja die Konkurrenz von Google zu ChatGPT in der ersten Präsentation falsche Ergebnisse geliefert, worauf der Aktienkurs gefallen ist. Um diese Frage zu beantworten, müssen wir verstehen, was hinter Systemen wie ChatGPT steckt. Wie funktioniert künstliche Intelligenz bzw. was also ist „GPT“?
Struhl (2017, p. 4) definiert das Erfolgskriterium von künstlicher Intelligenz als das Auffinden von Mustern in Daten, die für den Menschen nicht erkennbar sind. Dies ist sehr weit gefasst und beinhaltet viele statistische Verfahren, die seit vielen Jahrzehnten im Marketing angewandt werden, wie z. B. Clustering. Dabei werden oft große Datensätze für die Findung von Muster analysiert. Da diese Daten aber nicht vorher markiert wurden, hat die Maschine kein Wissen über die Bedeutung dieser Muster. Man benötigt eine Person, die die entstandenen Muster beschreibt. Deshalb spricht man in einem solchen Fall von unüberwachten (unsupervised) Maschinenlernen. Im Gegensatz dazu werden die Daten bei überwachten (supervised) Maschinenlernen mit bereits bekannten Merkmalen angereichert. Dies ist jedoch zeit- und somit personalintensiv, weshalb Maschinen immer nur für bestimmt Aufgabengebiete (z. B. Chatbot zur Beantwortung von Kundenanfragen) trainiert wurden.
Um die Kosten bzw. den Aufwand möglichst gering zu halten, wurden bei Google Research und Google Brain sogenannte Transformer Modelle entwickelt (Rothman, 2021, p. 22). Diese gibt es mittlerweile in verschiedenen Versionen wie Google’s BERT oder OpenAI’s GPT. Ziel dieser Modelle ist es, das jeweils nächste Wort in einem Text möglichst genau vorherzusagen. Allerdings lässt das Ergebnis an dieser Stelle noch zu wünschen übrig. Um die inhaltliche Interpretation zu verbessern, wird ermittelt, wie stark das jeweilige Wort mit benachbarten Wörtern gekoppelt ist. Eine einfache und gut verständliche Beschreibung des Vorganges findet sich bei Linde (2023).
Dieser zugegebenermaßen sehr kurzer Überblick über die Funktionsweise von GPT zeigt, wo die Achillesferse liegt: an den verwendeten Trainingsdaten. So können aktuelle Fragen nicht beantwortet werden oder das System gibt falsche Antworten. Auch ethische Probleme können auftreten, falls diese aus den jeweiligen Trainingsdaten so gelernt wurden. Aus diesem Grund setzt OpenAI 40 Mitarbeiter*innen ein, um einen Teil der Datenbasis aufzubereiten.
Kommen wir aber zurück zur ursprünglichen Frage: Werden wir jetzt alle in unseren Jobs von KI ersetzt? Nein! Zumindest nicht sofort. Denn wie die Diskussion (Glen, 2022) zeigt, ist die KI derzeit schon weit entwickelt. Allerdings sind gegenwärtige Anwendungen eher den Menschen unterstützend als ersetzend. Dies kann sich jedoch in wenigen Jahren ändern. Bereits klar ersichtlich ist, dass sich das Set an Fähigkeiten und Fertigkeiten, also auch die Berufe selbst verändern, viele sogar verschwinden werden.
Einen noch besseren Einblick sowie Ausblick in die Nutzung von Daten gibt unsere Veranstaltung Best of Marketing and Sales am 14.03 um 18:00 an der FH CAMPUS 02. Wir freuen uns auf eure Anmeldung 🙂
Glen, S. (2022, Dec. 14). ChatGPT writes code, but won’t replace developers. TechTarget. https://www.techtarget.com/searchsoftwarequality/news/252528379/ChatGPT-writes-code-but-wont-replace-developers
Linde, H. (2023, Feb. 6). So funktioniert ChatGPT. Golem.de. https://www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644.html
Rothman, D. (2021). Transformers for Natural Language Processing: Build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBERTa, and more. Packt Publishing Ltd.
Struhl, S. (2017), Artificial Intelligence Marketing and Predicting Consumer Choice: An Overview of Tools and Techniques, Kogan Page, London.
Cookie | Dauer | Beschreibung |
---|---|---|
cookielawinfo-checkbox-analytics | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics". |
cookielawinfo-checkbox-functional | 11 months | The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional". |
cookielawinfo-checkbox-necessary | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary". |
cookielawinfo-checkbox-others | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other. |
cookielawinfo-checkbox-performance | 11 months | This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance". |
viewed_cookie_policy | 11 months | The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data. |