Interessanter Fall auch Youtube. Da kommt es jetzt vermehrt zu Problemen, weil erwachsene Kanalbetreiber vom KI-gesteuerten Programm dazu genötigt werden, ihre ELTERN ihr Alter bestätigen zu lassen.
Das folgt aus er Ki, die jetzt Minderjährige rausfiltern soll, und kompletter Schrott ist, weil sie das nur aus den Videoaufrufen heraus berechnet.
Der reine Mario Gaming-Kanal, von einem Erwachsenen betrieben, hat jetzt also Probleme am Hals, weil die KI ihn, wegen seines kindertauglichen Contents, als Kind eingestuft hat, während der minderjährige Teenie, der sich unbeaufsichtigt ständig Horrorvideos reinzieht, durchgelassen wird, weil das ja Erwachsenencontent ist, als stuft die KI ihn als erwachsen ein.

Kompletter Schwachsinn, aber sie kommen damit durch. Langfristig wird das nur dazu führen, das jeder, egal wie alt, sich ab und zu Horrorvideos reinzieht, damit man später kein Problem mit der Altersabfrage bekommt.

Kleiner Vergleich:
Im Supermarkt darf man keinen Alkohol und keinen Tabak kaufen, wenn man minderjährig ist.
Man stelle sich nun mal vor, JEDER, egal ob er Alkohol oder Tabak kaufen will oder nicht, wird in den Supermarkt gar nicht mehr erst reingelassen, wenn er nicht eine Alterverifizierung über sich ergehen läßt, die aber nicht über einen Ausweis läuft, sondern dadurch, das der Kassierer, frei Schnauze, anhand des Inhaltes der letzten zehn Einkaufskörbe entscheiden darf.
Das ist das Level an Absurdidär, auf dem wir mittlerweile angekommen sind.

Und ratet mal, was langfristig passieren wird: Die Leute werden die Schnauze von der Gängelei irgendwann so voll haben, das sie freiwillig alle ihre Daten preisgeben, um ihre Ruhe zu haben. :wink:

2 „Gefällt mir“

Damit schreibst du der KI menschliche Eigenschaften zu. Lügen könnte sie nur, wenn sie wüsste, dass sie mit dem, was sie von sich gibt, falsch liegt und das vertuschen wollte.

Wenn ich unwissentlich etwas falsches sage, lüge ich nicht.

ChatGPT tötet auch keine Katze, sondern der Mensch, wenn er sich auf falsche Informationen verlässt, fahrlässige Tötung.

2 „Gefällt mir“

Dann nenne es halt: “Sie sagt nicht die Wahrheit/verbreitet Fake News”.
Natürlich macht sie das nicht aus einem eigenen, emotionsgetriebenen Grund heraus, sondern weil sie so programmiert wurde. Sie hat ja keine menschlichen Emotionen, ich glaube das ist uns hier allen klar. Daher finde ich diese kleine Ungenauigkeit in der Formulierung nicht problematisch, man versteht doch, wie es gemeint ist.

2 „Gefällt mir“

Ist das dann Beihilfe??

Chatbot Diskussionen erinnern manchmal an die Anfangszeit von Navigationssystemen in denen permanent das Beispiel vorgehalten wurde von den Fahrern, die in den Teich fuhren weil ihnen offenbar die Fähigkeit abhanden gekommen war, vorne aus der Windschutzscheibe heraus zu schauen.

Die eigentliche Diskussion ist aktuell eher bei der agentischen KI. Ist aber ein anderes Thema.

Warum schrauben MB und BMW ihre Angebote bei den Level 3 Assistenzsystemen zurück? Wegen Fehlender Kundennachfrage? Wirklich?

1 „Gefällt mir“

Ich bin keine Juristin, aber ich würde sagen nein.
Zur Beihilfe gehört nach meinem Verständnis auch ein gewisses Bewusstsein für das, was ich da tue.

Ich schreibe KI keine menschlichen Eigenschaften zu, daher schrieb ich “lügt effektiv”. Sie lügt nicht wirklich, aber effektiv kommt es darauf hinaus.

1 „Gefällt mir“

Oha.
Und wenn das nicht da ist, handelt die KI dann unterbewusst oder bewustlos?
Brauch die KI dann einen Elektroschock um das Bewusstsein wieder oder überhaupt erstmalig zu erlangen?

Erinnert irgendwie an Frankenstein und seine Monströsitäten

Genau das ist der springende Punkt und genau dafür bräuchte es m. E. gesetzliche Regeln, also wie eine KI programmiert sein darf und wie nicht. Alternativ wäre schon viel gewonnen, wenn es wenigstens freiwillige Leitlinien gäbe, eine Art ISO-Norm für definierte Qualitätsstandards, mit denen KIs zertifiziert sein können. Wo User dann anhand des Zertifikats gewisse Qualitätsstandards erkennen können. Z. B. ob eine KI ggf. auch einmal zugibt, überfragt zu sein oder ob sie so programmiert ist, ggf. irgendwelchen Müll zu halluzinieren, nur um grundsätzlich immer eine Antwort zu liefern.

1 „Gefällt mir“

Irgendwie doof, dass es bei gesetzlichen Regeln (fast) immer ein paar Schlupflöcher gibt.

Das ist ja auch im übertragenen Sinn gemeint.

Geht aber noch schlimmer. Wenn ChatGPT einen User über Wochen immer mehr in einen wahnhaften Zustand versetzt, ihm einredet, er lebe in einer Matrix und ihm am Ende vorschlägt, von einem Hochhausdach zu springen, weil diese Welt nicht real sei und er fliegen könne wie Neo im Film “The Matrix”, wenn er nur fest daran glaube, dann könnte man auch im eigentlichen Sinn von tötender KI sprechen - auch wenn die KI ohne Bewusstsein tötet. Denn genannten Fall gab es tatsächlich In den USA.

1 „Gefällt mir“

Man kann sich immer irgendwas „Schlimmeres“ ausdenken weshalb Technologie „verboten“ werden sollte. Dann kann man gleich bei dem Gerichtsurteil vergangene Woche gegen Meta anfangen.

Ja, natürlich können soziale Medien Nutzer, insbesondere Kinder, beeinflussen. In dem Fall ist es auch das entscheidende juristische Element, dass minderjährige betroffen sind und keine Erwachsenen. Letztere sollten eigentlich selber wissen sollten, was sie mit einem Telefon in der Hand tun oder lassen sollten.

Aber da kommt den Eltern mindestens eine Aufsichtlichtspflicht zu was sehr wahrscheinlich beim Berufungsverfahren Ausschlaggebend sein wird.

Warum nun die Angst vor Chatbots? Weil „Intelligenz“ im Namen steht?

Naives Verhalten gegenüber Technik hat nicht erst bei KI angefangen. Über 20 Jahre seitdem es Suchmaschinen gibt, glauben Nutzer noch, dass die „besten“ Ergebnisse oben auf der ersten Seite stehen und sind verwundert wenn sie drafklicken und in einen Webshop landen.

Hat es jemals Initiativen gegeben um Gesetze zu erlassen, um den Aufbau der Ergebnisseiten einheitlich festzulegen? Damit gutgläubige Nutzer nicht irregeführt werden?

Wenn die Risiken so hoch sind, dann sollten eher allgemein Schulungen für Anwender gefördert werden, damit diese wissen was sie tun…

1 „Gefällt mir“

Ich fände eine Haftungspflicht für den KI-Anbieter nicht verkehrt. Protokollpflicht und wenn sich dann rausstellt das der Bot “sich ganz sicher” war…

Ich habe nicht wegen mir Angst, ich durchschaue es ja, aber wegen denen, die zu viel Schwachsinn glauben, kommen am Ende Unschuldige mit zu Schaden. Das Kind kann beispielsweise nichts dafür, wenn die Mutter es nach ChatGPT-Anleitung behandelt, statt zum Arzt zu gehen. Und wenn der Arzt nun selber Chatbot-gläubig ist… ja dann wird es ganz übel.

Und da würden immer genau die freiwillig hingehen, die es am wenigsten brauchen.

Nochmals, ich glaube die aktuellen Diskussionen laufen auf unterschiedlichen Ebenen ab. (Zurecht) Kontrovers ist agentische KI. Bei Chatbots ist es der Faktor Mensch.

Klingt fast bevormundend wie; „wir haben das Spiel durchschaut. Es braucht aber Lösungen für die Anderen.“ Geht fast in Richtung einer Forderung von Kontrolle über „tendenziöse Medien“ - ob nun in die eine oder andere Richtung.

Was ist rausgekommen? Nicht viel. Am Ende entscheidet der Zuschauer selbst, von wem er sich wie über das Weltgeschehen aufklären lässt, ob das nun allen passt oder nicht. „Schulungen“ wären vermutlich sogar kontraproduktiv weil man nicht erklärt bekommen will, was man zu glauben hat.

Es gibt zwar sogar immer noch unabhängige „Faktchecker“ Organisationen, die versuchen eine Art Kontrolle zu spielen. Tatsächlich hat niemand es auch nur wahrgenommen, als Politifact 2025 zum “Jahr der Lügen“ auserkoren hat weil sie schlicht und ergreifend nicht mehr hinterher gekommen sind…

Letztendlich ist jedenfalls auch hier die Katze aus dem Sack. Man kann nur hoffen, dass Menschen heute noch in der Lage sind, für sich selber zu erkennen, was wahr und unwahr, richtig oder falsch ist…

Ich will nicht, dass KI verboten wird. Nur reglementiert gehört sich die Technologie.

1 „Gefällt mir“

Nett wär’s gewesen. Solche Gedanken werden aber in anderen Regionen als „abendländischer Idealismus“ abgehandelt. Es entscheidet letztendlich nur noch der Markt.

Das wird versucht durch den EU AI Act.
Nur die Kontrolle dürfte schwierig sein. Durch KI?

Wichtig finde ich, dass von KI erstellte Texte, Bilder etc. deutlich gekennzeichnet werden.

Die Frage ist halt immer, mit wieviel Regulierung man was erreicht. Wenn man die Schrauben regulatorisch zu weit dreht für heimische Industrien und die Firmen dadurch später von ausländischen Unternehmen übernommen werden ohne ähnliche Einschränkungen zu KI, was hat man dann erreicht? Einfach mal zuhören, was Beteiligte zwischen den Zeilen von sich geben…

Dreimal hat Garbor Steingart neulich versucht, dem Christian Klein im Gespräch zu entnehmen, ob Deutschlands größtes IT Unternehmen bald übernommen werden könnte. Zweimal hat der es abgestritten, beim 3ten Mal hat er das Offensichtliche kleinlaut zugegeben: die Marktkapitalisierung der ausländischen Konkurrenz ist unheimlich. Die Frage ist daher nicht ob sondern eher, wann solche Firmen in die EU einsteigen.

Und dann nützen den EU Bürgern keine GDPR oder Schems II Beschlüsse mehr…

Ich habe mir das jetzt nicht angehört, weil meine Kapazitäten nicht dafür ausreichen, mich damit zu befassen, was alles überall passieren könnte.

Wenn das passiert, ist die Frage, ob und wie EU Regeln gegenüber ausländischen Firmen durchgesetzt werden können.

Die gleiche Frage stellt sich beim Völkerrecht.

Keine Lösung ist, weil es schwierig ist, sie durchzusetzen, erst gar keine Regeln aufzustellen.

Ich habe auch nicht geschrieben, daß man nichts tun sollte. Eine EU Regulierung sollte jedenfalls auch nicht durch tote Katzen motiviert sein.

Die Umsetzungsverantwortung fällt gemäß §4 BDSG idR. auf die inländischen Firmen zu. Diese werden auch bestraft, wenn sie nicht datenschutzkonform sind. Diese können dann wiederum versuchen, über Auftragverarbeitungsverträge so gut es geht Einfluss auf das was bei IT Firmen außerhalb der EU passiert, zu nehmen. Diese sind aber letztlich auch nur ein Stück Papier, wie das Völkerrecht.