Martin Bernklau wird Opfer der Künstlichen Intelligenz

Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet.

Zusätzlich liefert Copilot noch die volle Adresse von Bernklau mit Telefonnummer und Routenplaner.

Viele Jahrzehnte war Bernklau Gerichtsreporter, hat für verschiedene Zeitungen über Prozesse aus dem Landgericht Tübingen berichtet - über Fälle von Missbrauch, Gewalt und Betrug, mit denen er jetzt in Verbindung gebracht wird, weil sie auch im Internet zu finden sind. Die KI kombiniert, trägt zusammen und macht so den Reporter zum Täter.

Der zuständige Datenschutzbeauftragte vom bayerischen Landesamt wendet sich - Monate nach einer Beschwerde Bernklaus - mit dem Fall an Microsoft. Dort sichert man zu, das Problem abzustellen. Tatsächlich verschwinden die Einträge recht schnell. Doch nach ein paar Tagen erscheinen dieselben Aussagen wieder im Chat. …

EDIT: Der Link hat gefehlt! Sorry.

  • General_Effort@lemmy.world
    link
    fedilink
    Deutsch
    arrow-up
    1
    arrow-down
    3
    ·
    2 months ago

    Er hat eine Maschine bedient, die Texte generiert. Mit der Maschine hat er einen Text erzeugt, der ihn verleumdet. Soll er sich selber anzeigen?

    Nicht vergessen, dass die KI kein Mensch ist. Und wenn, wäre es Beleidigung, wenn nicht nachgewiesen wird, dass die Falschbehauptung auch gegenüber anderen gemacht wurde.

    Ich denke, die Hersteller sollten deutlicher auf die Schwächen der Anwendung hinweisen. Ein älterer Mensch weiß ja nicht, was das ist, wenn auf einmal Copilot im Edge Browser auftaucht. Aber ob sowas Schadenersatz wegen seelischer Grausamkeit oä rechtfertigt, glaube ich eher nicht.

    • RQG@lemmy.world
      link
      fedilink
      Deutsch
      arrow-up
      5
      ·
      2 months ago

      Also wenn ich ein Programm schreibe, das jemanden beleidigt, bin ich auch fein raus?

      • General_Effort@lemmy.world
        link
        fedilink
        Deutsch
        arrow-up
        1
        arrow-down
        1
        ·
        2 months ago

        Wenn dich die NPCs in einem Spiel als Milchtrinker beleidigen, wirst du damit leben müssen. Das heißt aber nicht, dass es eine Ausnahme für Programme gibt. So funktioniert das nicht.

        • iLove@programming.dev
          link
          fedilink
          Deutsch
          arrow-up
          4
          ·
          2 months ago

          Wenn mich ein NPC im Spiel beleidigt, sagt er das nur mir.

          Wenn eine Person vor anderen Falschaussagen über mich trifft, dann ist das nicht in Ordnung. Ob das jetzt im Kontext eines Spiels ist, der Realität oder eines statistischen Programms. Alles nicht in Ordnung, wenn ich nicht damit einverstanden bin.

          • General_Effort@lemmy.world
            link
            fedilink
            Deutsch
            arrow-up
            1
            ·
            2 months ago

            Ich verstehe, dass du dich irgendwie gestört fühlst. Man könnte die Gesetze ändern. Aber was genau will man damit erreichen? Warum ist es so wichtig zu kontrollieren, was andere Leute mit ihren Geräten machen?

            Mir geht es bei dieser Frage um diesen Willen zur Machtausübung. Es gibt ja schon ultra-viele Vorschriften, sodass man Computer-technisch kaum was machen kann. Ich glaube nicht, dass es Lemmy-Instanzen in der EU gibt, die rechtskonform sind. Was soll sowas?

            • iLove@programming.dev
              link
              fedilink
              Deutsch
              arrow-up
              1
              ·
              2 months ago

              Wie ein anderer bereits schrieb, ließe sich die Gesetzeslage so, sei sie denn tatsächlich so wie hier vermutet, ausnutzen. Man schreibe ein statistisches Programm (GPT) welches von einer breiten Masse benutzt wird und dessen Aussagen, mangels technischer Kenntnisse, größtenteils für Wahr genommen werden. Man nutze dieses Programm explizit für die Verbreitung von Fake News. Man beeinflusse so politische und gesellschaftliche Verhältnisse. Verfolgt werden kann solch Praxis anscheinend nicht, da keine wahrhafte Person dafür verantwortlich ist. Das ist ein Problem.

              So etwas gibt es ja schon in Form von Twitter/X, nur, dass es immens mehr Arbeit ist den gewünschten Content manuell in persona zu moderieren. Diese Arbeit übernimmt das hypothetische böse GPT für dich.

              Siehst du das nicht als Problem?

              • General_Effort@lemmy.world
                link
                fedilink
                Deutsch
                arrow-up
                1
                ·
                2 months ago

                Das wird so nicht funktionieren. Es ist ziemlich egal, wie du die Verleumdung verbreitest. Es kommt darauf an, dass du es tust.

                In diesem Fall ist es ziemlich unwahrscheinlich, dass irgendjemand bei OpenAI jemals auch nur von diesem Mann gehört hat. Wie können sie ihn dann verleumden?

                Sollte sein Ruf durch das Produkt gelitten haben, dann gäbe es wahrscheinlich die Möglichkeit Schadenersatz zu verlangen. Der Artikel gibt aber keinen Hinweis auf so einen Schaden. Ich sehe nicht mal einen Hinweis, dass sonst irgendwer ChatGPT über den Mann befragt hätte, geschweige denn die Aussage geglaubt hat.