Über LLM-generierten Code

Paul Cantrell fasst zusammen, was mit LLM-generierten Code passieren kann und bringt gleich auch noch ein passendes Beispiel.

Companies are refusing to hire or even laying off plumbers because hucksters backed by massive unicorn-chasing investment money told them they can build plumbing faster and cheaper out of cardboard.

A few years from now, there’s going to be a hell of a market for people who can replace cardboard toilets with real ones.

And also for people who can replace carpets. And walls and floors.

This is a post about LLM-generated code.

Paul Cantrell

Und das Beispiel ist ein Verweis auf einen Fall von „Slopsquatting„, also das gezielte Nutzen von Namen und Bezeichnungen für Softwarepakete, die nicht existieren, aber von Künstlicher Intelligenz häufig halluziniert werden, um dann Schadcode in den von der KI generierten Code implementieren zu können.

Es wird sicher alles irgendwann sicherer und besser und toll sein, aber bis dahin gilt, was Paul Cantrell sagt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Benachrichtige mich bei Reaktionen auf meinen Kommentar. Auch möglich: Abo ohne Kommentar.