Einsatz von KI

Macht ChatGPT denkfaul?

KI-Programme wie ChatGPT können nicht «out of the box» denken. Was das für die Qualität der erzeugten Inhalte wie Stelleninserate bedeutet, erklärt ein Schreibprofi und sagt, wieso KI kein Ersatz für Expertise ist.

Seit das Unternehmen OpenAI Ende 2022 sein Programm ChatGPT für die allgemeine kostenlose Nutzung freigeschaltet hat, ist um das Thema künstliche Intelligenz (KI) ein Hype entstanden. Denn mit ihnen lassen sich sehr schnell und einfach zumindest erste Entwürfe von Stelleninseraten, Websitecontent, Newsletter, Blogbeiträge, oder Post für die Social Media generieren, die man dann weiterbearbeiten kann.

Zuweilen treibt die ChatGPT-Nutzung aber seltsame Blüten. Ich schreibe meine Texte selbst, aber bevor ich mich an meine Arbeit mache, bitte aber die Kunden unserer Marketing-Agentur um Input, um mich mit ihren Kernbotschaften und ihrer inhaltlichen Stossrichtung vertraut zu machen. Nicht selten erhalte ich kurze Zeit später einen Text zugesandt, der erkennbar von ChatGPT erstellt wurde. Das heisst, im Idealfall besteht er aus einigen recht allgemeinen Aussagen, die ich selbst auch beim Googeln im Netz gefunden hätten. Von eigenen Gedanken findet man in den Texten jedoch keine Spur.

Themen oft nicht durchdacht

Nicht selten wären die Texte, wenn ich sie ohne eine neue inhaltliche Fokussetzung Fachzeitschriften anbieten würden, aus deren Sicht sogar ein absoluter Blödsinn – zum Beispiel, weil in ihnen nicht reflektiert wird, dass Kleinunternehmen weniger Ressourcen als Konzerne haben und die Logistikbranche beispielsweise ganz anders als die Finanzbranche tickt, weshalb für viele Probleme auch unterschiedliche Lösungen erforderlich sind. Das heisst, in den Artikeln erfolgt keine Differenzierung, obwohl sich gerade darin zum Beispiel die Expertise eines Beraters oder einer HR-Fachexpertin zeigt.

Hierfür ein Beispiel. Vor einigen Wochen bat uns ein auf KMU spezialisierter Personalberater, der offensichtlich auch irgendwo gelesen hatte «Der KI gehört die Zukunft», für ihn einen Artikel zum Thema «KI-Einsatz im Personalauswahlprozess» zu schreiben. Nachdem ich ihn gebeten hatte, mir diesbezüglich einige Stichworte zu senden, erhielt ich einen etwa 30 Zeilen langen Text. In ihm wurde ein möglicher KI-Einsatz im Personalauswahlprozess zur Bewerbervorselektion beschrieben – ohne jeglichen Bezug auf Klein- und Mittelunternehmen.

Dabei hatte mir der Berater im Vorfeld erzählt, die meisten seiner Kundinnen und Kunden kämpften aktuell mit folgendem Problem: Auf Stellenausschreibungen von ihnen melden sich kaum Bewerbende und deshalb müssen sie mangels Alternative, um ihre Arbeitsfähigkeit zu bewahren, Personen einstellen, die ihre Anforderungen nur teilweise erfüllen.

Als ich den Berater anrief und fragte, welchen Nutzen in einer solchen Arbeitsmarktsituation KMU ein KI-System zur Vorselektion von Bewerbenden biete, lautete seine Antwort nach einem kurzen Nachdenken: «Eigentlich keinen, wenn kaum Bewerber vor der Tür stehen ...»

Immer die gleichen Klischees

Ähnlich erging es mir, als ich einen Artikel zum Thema «Generationenübergreifende Zusammenarbeit» schreiben sollte. In der Textvorlage, die ich erhielt, wurde der Eindruck suggeriert: Das Gros der Mitarbeitenden und Führungskräfte der Unternehmen sind auch heute noch Digital Immigrants, die mit der IT auf Kriegsfuss stehen und starke emotionelle Vorbehalte gegenüber IT-Lösungen haben, woraus Probleme in der Zusammenarbeit mit den Digital Natives resultieren.

Als ich daraufhin den Textlieferanten fragte, inwieweit dies heute noch zutreffend sei, da inzwischen viele Angehörige der in dem Artikel zitierten Generationen X und Y ja schon 35 oder gar 40 Jahre alt seien und nicht selten seit Jahren schon zu den Leistungsträgern in den Unternehmen zählten, lautete seine Antwort: «Damit könnten Sie recht haben.» Offensichtlich hatte er jedoch noch nie darüber nachgedacht, inwieweit diese vor ein, zwei Jahrzehnten gültigen Klischees heute noch stimmen. Also störten sie ihn auch im Textentwurf von ChatGPT nicht.

ChatGPT kann nicht «out of the box» denken

Die Texte sind so banal und allgemein, dass man von eigenständigen Denken oder von Feld- und Praxiserfahrung nichts spürt. Doch das soll kein Votum gegen eine Nutzung des Programms ChatGPT sein.

Dieses ist und bleibt ein oft sehr hilfreiches Tool. Was ChatGPT aber nicht abnehmen kann, ist • das Denken (in all seinen Facetten wie durch-denken, be-denken und quer-denken) und • das Entwickeln passgenauer Problemlösungen für Zielkunden.

Denn letztlich kann dieses Programm nur ein mehr oder minder sinnvolles Substrat der Infos, die es im Netz findet, wiedergeben. Es kann also auch nicht «out of the box» denken und ganz neue Problemlösungen finden. Das ist und bleibt der Job der Expertinnen und Experten.

Kommentieren 0 Kommentare HR Cosmos
Bernhard Kuntz

Bernhard Kuntz ist Geschäftsführer der PRofilBerater GmbH, Darmstadt. Er ist unter anderem Autor der Marketing- und PR-Ratgeber «Die Katze im Sack verkaufen», «Fette Beute für Trainer und Berater» sowie «Warum kennt den jeder?».
www.die-profilberater.de

Weitere Artikel von Bernhard Kuntz

Cela peut aussi vous intéresser