Was vor einigen Jahren undenkbar schien, ist heute teils Realität. Zum Beispiel für einen 20-Jährigen, der an der Hochschule Kempten Wirtschaftsingenieurwesen studiert. Bei einer Klausur im Fach Informationsverarbeitung verhalf ihm KI zur Note 1,0. „Ich habe einfach eins zu eins die Sachen gemacht, die mir ChatGPT gesagt hat.“
Der neuen Leitlinie nach wird KI bei allen Leistungen, die zu Hause angefertigt werden, vollständig zugelassen. Da seien sich alle bayerischen Hochschulen einig, sagt Rohrmair. Das betreffe Projektarbeiten, Seminararbeiten, Bachelorarbeiten oder die Vorbereitungen für Vorträge. „Da bringt ein Verbot nichts“, sagt der THA-Präsident. Die Studierenden nützten die KI sowieso.
Boah, ich weiß echt nicht, ob die Begründung "Die machen das ja eh, also erlauben wir es einfach" so eine tolle Sache ist. Ich arbeite als Webdev und sehe an einigen meiner Kollegen leider, wie unfassbar unfähig sie die KI gemacht hat - ohne ChatGPT können sie oft einfachste Aufgaben nicht lösen und die Qualität ihrer Arbeit leidet durch halluzinierende KI's und enthält viel unnötigem Boilerplate-Code.
Bestes Beispiel: Ich schreibe fast nie Kommentare, weil ich meinen Code so verfasse, dass er möglichst von allen verstanden werden kann - nur in absoluten Ausnahmefällen (wenn ein Prozess schwer ersichtlich ist oder der Kunde massiv dumme Ideen hatte), sind Kommentare nötig. ChatGPT ballert Kommentare links und rechts rein - daran erkenne ich dann auch immer den Code, den bestimmte Kollegen verfasst haben.
// We are doing things here to get a result
function doThings() {
return $result;
}
Das ist absoluter Mist. Wenn wir noch mehr Leute in den Arbeitsmarkt schubsen, die bereits während des Studiums gelernt haben, so zu arbeiten und denken, dass das auch noch völlig okay ist, sehe ich schwarz für die Zukunft.
Sehe ich auch schwierig. Im Endeffekt ist es ein Selbstbetrug, weil man Arbeiten einreicht, die im Zweifel über der eigenen Kompetenz liegen. Das kann dann halt auch nur so lange gut gehen.
KI als Werkzeug nutzen zu lernen, halte ich dabei nicht für generell falsch, aber man lernt ja in seinem Leben auch erst Kopfrechnen, bevor man irgendwann einen Taschenrechner benutzen darf.
Naja, ist jetzt nicht so, dass die Leute bisher vom Studium gekommen sind und gewusst hätten, wie man Software entwickelt. Aber ja, wäre natürlich schön gewesen, wenn das besser statt schlechter wird.
Mir macht Sorge, dass die Leute bis zum Berufseinstieg keinen Eindruck haben, ob der Job überhaupt etwas für sie ist. Viele von den Aufgaben im Studium sind gelöste Probleme, wo dir die KI die Musterlösung geben kann. Im Berufsleben hingegen sind's schon regelmäßig knackige Puzzles, die man lösen muss, wo die KI auch dumm aus der Wäsche schaut. Wenn du da erst merkst, dass logisches Denken nicht so dein Fall ist, dann wäre das schon ziemlich bescheiden...
Hast du jetzt ernsthaft geschrieben, dass du deinen Code nie kommentierst, weil ja eh jeder versteht, was er macht und dass KI blöd ist, weil sie Kommentare hinzufügt? Ich persönlich halte Kommentare im Code für absolut sinnvoll. Die stören nicht, machen nichts kaputt und sind unglaublich hilfreich, wenn man eine fremde Codebasis vorgesetzt bekommt.
Wie unten bereits kommentiert, sind Kommentare nicht hilfreich, die genau das erklären was eine Zeile darunter steht. ChatGPT kommentiert zu viel und bläht Code nur unnötig mit nutzlosen Kommentaren auf.
Ich schreibe Kommentare, um etwas verständlich zu machen, was auf den ersten Blick vielleicht nicht gleich ersichtlich ist. ChatGPT schreibt einen Kommentar, wenn eine Zahl inkrementiert wird - jeder Programmierer (selbst totale Anfänger) erkennen das auch so und benötigen solche Kommentare nicht.
Und ich empfinde es sehr wohl störend, wenn ein Code durchsiebt ist mit Kommentaren. Man muss das Zeug ja schließlich auch wegscrollen oder mental ignorieren.