KI – eine Neue Technik zwischen Chancen und Risiken

Home Foren Austausch (öffentlich) KI – eine Neue Technik zwischen Chancen und Risiken

Ansicht von 10 Beiträgen – 1 bis 10 (von insgesamt 10)
  • Autor
    Beiträge
  • #349131

    Hallo!

    Hier im Forum ist noch kein öffentlicher Thread zu dem Thema, deswegen will ich einen eröffnen.

    Es geht um die derzeit im Focus stehende Technologie: “Künstliche Intelligenz”. Diese Technologie ist derzeit in aller Munde. Sie wird teils gepriesen als Wunderwerk, als Lösung aller Probleme der Menschheit.

    Andere warnen vor dieser Technologie, warnen etwa davor, dass zu viel Arbeit durch Automatisierung abgeschafft werden könnte. Oder sie haben Angst, dass die Technik selbst gefährlich für den Menschen werden könnte. Dass Menschen sie nutzen könnten, um andere so zu übervorteilen. Sie fürchten, dass ein gesundes Gleichgewicht der Welt verloren gehen könnte, da die Technik eben die kognitive Leistung von Menschen so weit übersteigen kann und viele Arbeit einfach abgeschafft und durch Maschinen gemacht werden kann, auch Künstlerische, Geist- oder Büroarbeit. Manche fürchten gar, dass die Technik etwa “zu viel Intelligenz” haben könnte, uns unterjochen, versklaven, vernichten wollen könnte.

    Viele dieser Warnungen klingen genauso phantastisch, wie die Wunschvorstellungen, die viele Menschen von dieser Technik haben. Manches geht da wohl eher dem Reich der Wuschträume und Schreckensvisionen als der Realität entgegen. Ich habe mich mit Programmierkenntnissen recht intensiv damit beschäftigt, wie diese Technologie funktioniert, und kann aus meiner Sicht was viele Warnungen angeht, eigentlich nur Entwarnung geben. Aber gleichzeitig muss man vor anderen Risken warnen, dass Menschen diese Technologie eben leider massiv missbrauchen oder überschätzen können. Vor allem letzteres – viele Menschen glauben, die Intelligenz dieser Systeme wäre mit Lebewesen vergleichbar, oder ihr überlegen. Aber das ist sie eben nicht, sie ist völlig andersartig, und wir verstehen sie eigentlich auch kaum – wir reiten alle damit Geister, die wir rufen aber nicht kontrollieren können, und die mehr Eigenleben haben können, als uns lieb ist. Eben aber kein Eigenleben, wie wir Menschen es haben, da die Maschinen keinen eigenen Willen haben können – dafür ein Eigenleben in der Andersartigkeit des Denkens, und da ist genau unsere menschliche Schwäche das Risiko, da wir der Maschine zutrauen wollen, was wir selbst so nicht verstehen oder kontrollieren. Das kann nur schief gehen, und das geht es auch. Darvon soll mein Text hier handlen.

    Wenn diese Technologie falsch verwendet wird, dann können schlimme Dinge geschehen, vor denen die Welt jetzt meiner Meinung nach mehr Respekt haben und die Menschen aufklären und sensibilisieren sollte! Diese Technologie ist eben nicht – superschlau, sie ist lediglich eine Art automatisierte rein assoziative Kognition, die von der Maschine quasi durch unzählige (rein aus Probedaten simulierte) Wiederholungen von Assoziationen (etwa Bild – Beschreibung) eingepaukt wurde. Die Maschine kann dann solche Daten miteinander blind verknüpfen, und z.B. Eingaben ergänzen oder vervollständigen, oder eben aus einer Beschreibung ein neues Bild machen, wo es bereits unzählige ähnliche Beschreibungen und gültige Bilder dazu kennt. Eben – nur blind eingepauktes blind verknüpfen, aber nicht sehend oder wissend oder gar prüfend, was sie da eigentlich genau verknüpft.

    Das Problem – mehr kennt und kann so eine KI dann leider nicht, sie ist einfach nur ein Fachidiot, ein besserer Papagei, der blind nachplappert was ihm vorher eingebimst wurde. Die KI hat keinerlei echtes Verständnis der Dinge, die sie erzeugt, wie sie ein Mensch haben würde. Sie hat keinerlei echten Willen oder Willensbildung – ihr Wille ist das Prompt, das ein Mensch eingegeben hat, oder ein eher herkömmliches Programm oder ein von Menschen so vorgegebenes und eingelerntes “Verhaltensmuster” bzw. ein Ablaufmuster der Ergebnisse. Es ist kein echter freier Wille, sondern eben nur ein blindes Nachplappern der Ergebnisse. Und es ist kein echtes Assoziieren und “Wissen” über die Dinge, die als Ergebnis erzeugt werden, sondern nur ein Nachäffen gewissermassen, ein blindes noch dazu, oder ein von einem Menschen gesteuertes.

    Zu was für Problemen das führen kann, siehe diesen aktuellen Spiegel Online Beitrag:

    https://www.spiegel.de/netzwelt/web/google-ki-suche-empfiehlt-klebstoff-zum-pizzabacken-a-a4b0ff1a-40ad-44c8-b879-f39315a865c7

    Die Google KI versteht Unnicht, dass man keinen Klebstoff benutzen sollte, um Salami auf die Pizza zu kleben – sie gibt das als Antwort auf eine Suchfrage, weil irgend ein Forennutzer sich mal einen Scherz damit erlaubt hat. Die KI kann das nicht wissen, sie hält den Forenpost für eine gültige Antwort, und empfielt es als wäre es eine eigene Aussage einfach weiter. Mich erinnert das auch an die vielen entstellten und verstörenden Bilder, die KI’s wie Dall-E anfangs ausgespuckt haben und auch manchmal immer noch tun, die Tesla Autopiloten, die volle Kanne in einen Truck semmeln oder einfach mitten in der Fahrt auf gerader Strecke bremsen und rechts ausscheren, oder an die verstörenden Texte, die ChatGPT zwangen, in riesen Handarbeit die Probedaten so lange zu bewerten, bis man dachte, jetzt kommen zu 99.9% nicht mehr solch arger Unfug, aber eben zu 0.1% sind da aber noch Nutzer, die noch Ausrutscher erfahren müssen, selbst wenn die nicht mehr ganz so grob sind? Pizza mit Klebstoff klingt schon nach einer heftigeren Nummer, ich kenne auch subtilere Ausrutscher solcher KIs, die aber noch fatalere Konsequenzen haben könnten…

    So eine KI auf Menschen loszulassen, und auf Suchmaschinenfragen antworten zu lassen, ist also grob fahrlässig, evlt. mit fahrlässiger Körperverletzung oder schlimmerem gleichzusetzen. Warum? Die KI ist ihrer Verantwortung nicht gerecht gewesen – den Post selbst zu verlinken, wäre noch okay gewesen, denn aus dem Zusammenhang wissen die Leute schon eher, es ist kein gültiges Kochrezept, sondern ein Witz. Die KI versteht den Witz nicht und empfiehlt das Rezept einfach in eigenen Worten umformuliert weiter. Google sollte sich lieber etwas mehr fürchten, etwa vor Kindern im Krankenhaus mit verklebtem Magen und Vergiftungserscheinungen sowie den Anwälten der Eltern, weil die KI nicht der geeignete Ansprechpartner für ihren Wunsch, eine Pizza zu backen gewesen ist.

    Das ist also alles andere als lustig, vor allem wenn man bedenkt, was für Anfragen die Menschen noch so in die Suchmaschine tippen könnten, und was dieser Google Papagei ihnen dann alles raten würde, weil er Witze und Propaganda und ähnliche Schweinerein nicht richtig verstehen kann und ungefiltert weiter gibt. Die KI ist eben nicht – intelligent, sondern nur eine Art ungenauer Datenspeicher, der auch Daten zurück und neu kombiniert phantasieren kann, leider oft auf fatale Art da völlig ungehemmt und grenzenlos. Ich erinnere mich an die Geschichten um die Klickarbeiter, die von Bildern und Texten der grossen nahmhaften KIs überfordert waren und psychologische Betreuung brauchten – die Technologie versteht nicht nur keinen Humor, sondern auch kein Grauen, sie versteht den Unterschied zwischen Gut und Böse nicht. Das zeigt sich an den Ergebnissen, für die diese Maschinen massiv gefiltert werden müssen, und zwar durch Menschen, die diese Unterschiede noch kennen. Dennoch wäre bei jeder Filterung zu erwarten, dass sich irgendwo noch Fehler einschleichen und immer weiter fortsetzen, denn auch die menschlichen Zuarbeiter, machen noch Fehler, und das System an sich bedeingt meiner Meinung nach auch eine gewisse Fehlerhaftigkeit und Ungenauigkeit von sich aus. Ein Mensch kann das reflektieren, den Fehler erkennen und sich von ihm abhalten, und dann seinen Irrtum korrigieren indem er es richtig lernt. Die KI ist zu solcher Reflektion nicht fähig, sie ist wie ein Mensch mit allerlei Wissen, aber ohne die Fähigkeit dieses auch weise zu reflektieren oder bewusst darüber zu entscheiden.

    Die geht quasi immer nur zügellos und ungefiltert und kennt aus ihrer Natur keine Grenzen aber auch keinen freien Willen. Deswegen sollte man auch nicht den Fehler machen, diese Technologie zu vermenschlichen. Denn sie hat eben: keinen Willen, mit dem sie uns selbst unterdrücken oder vernichten wollen würde. So etwas wie eine bewusste Reflektion oder Willenhandlung, die für eine bewusste Entscheidung dazu nötig wäre, kennt die KI nämlich nicht. Was aber möglich ist, dass Menschen sie eben in einer bewussten Entscheidung (oder durch einen Unfall) so programmieren, dass sie ein Unterdrückungs- oder Vernichtungswerkzeug wird. Es ist also wie ein Hammer, der auch noch geschwungen werden muss, damit er muwilligen Schaden anrichtet und nicht nur einen Nagel da reinhaut, wo er auch reingehört. Freilich ist es auch ein Hammer, der einen Automatischen Arm dran haben kann, der ihn immer weiter schwingt. Aber auch den, muss erst jemand so installiert haben, mit der Absicht dazu.

    Deswegen sind für Schäden etc. die durch KI verursacht werden, auch immer die Menschen, die sie erschaffen und so programmiert bzw. manipuliert und eingesetzt haben, als Täter eines Verbrechens zu sehen und verantwortlich zu machen, und nie die KI selbst. Die ist nur eine Maschine, die man bloss abschalten braucht, damit sie keinen Schaden mehr anrichtet. Man gibt ihr eine bessere Software, dann nützt sie womöglich der Menschheit danach wieder, denn diese Technik kann – richtig eingesetzt – auch ein grosser Segen für die Menschheit sein, glaube ich. Sie wird unfreiwillige oder aus Umständen Erzwungene Arbeit für den Menschen abschaffen, wenn wir sie einmal gut genug verstehen, und wenn wir Menschen klug und nicht zu gierig, und lernen diese Technik zum Wohle aller zu nutzen und zu teilen, dann kann sie die Menschheit womöglich noch befreien, anstatt ihr Untergang zu werden.

    Die Grenzen dafür zu finden, sollte jetzt die Aufgabe derjenigen sein, die das Wissen um diese Technologie haben und den Einfluss, ihren Einsatz zu kontrollieren und die Menschen vor schlimmen Fehlern zu bewahren. Denn die kann man mit dieser Technik machen, glaube ich, mehr als mit jeder anderen – der schlimmste Fehler wäre noch, den Menschen ungeschützt und ungefiltert solcher Technik auszusetzen, in seinem Herzen, in seiner Seele – wo die Kälte und Härte dieser Technik nichts zu suchen haben. Wo die schiere Brutalität, mit der diese Technik logische Schlüsse wild verknüpft am Menschen vorbei in sein Herz schiessen kann, was im Herzen so nichts zu suchen hat. Denn die Menschenseele ist nicht ungezügelt wie diese Maschinen, sondern lebt aus der bewussten Reflektion und dem klaren Spiegel ihrer Ruhe, und sie findet in sich nur ein gesundes Bewusstsein mit freier Willensbildung und der Fähigkeit, respektvoll mit anderen umzugehen, wenn sie selbst respektiert wird und sich ihre Logik auf natürlichem, für Menschen nachvollziehbarem Wege entfaltet.

    Die KI Technik, die wir derzeit besitzen, verfügt über diese Strukturiertheit nicht, sie kennt nur den kürzesten bzw. den durch völlig blindes, erratisches und unreflektiertes bzw. wahlloses “Probieren” entstandenen Weg. Dieser ist für Menschen nicht mehr nachvollziehbar oder gesund, deswegen brauchen wir meiner Meinung nach Sperren davor, den Menschen nicht ungefiltert den Ergebnissen dieser Technologie auszusetzen und ihn zu schützen eben, insbesondere in seiner psychischen Integrität. Dafür müssen wir glaube ich auch uns und unsere Kinder davor schützen, nicht ungefiltert den Werken diser Technik ausgesetzt zu sein. Denn nicht nur unsere Kinder, auch Erwachsene können glaube ich durch die Produkte solcher Technik schon als Konsumenten grossen Schaden nehmen. Ich nehme mich einmal des Beispieles der erzeugten Bild-, Text- und Klangwelten solcher KIs an. Diese beeinflussen uns ja ebenso wie menschgemachte Bilder, Texte oder Töne…und in solchen Kunstwerken, steckt ja immer ein gesamtausdruck der Seele der Erschaffenden, alles Wissen, alle Erfahrung, viel Hintersinn und manchmal auch ungewollte Ehrlichkeit.

    Denn: diese Technologie “versteht” ihre Werke ja gar nicht, sie plappert nur Dinge aus den oberflächlichen Beschreibungen zusammen, mit denen sie programmiert wurde. Das Ergebnis spiegelt also oberflächlich das gefragte wieder…es wurde geformt aus den aller oberflächlichsten Textbeschreibungen der Daten, wie verschiedene Menschen es beschrieben haben. Aber Gefühle…sind nicht immer eindeutig und in ihrer ganzen Wirkung zu beschreiben, es gibt immer Dimensionen dabei, die versteht man nur als Mensch, wenn man diese Gefühle schon einmal erlebt hat. Die KI hingegen versteht diese Gefühle nicht: hinter der Oberfläche kombiniert sie wahllos, dort sind die allerwidersprüchlichsten Dinge zusammengebaut. Es entstehen fatale, verwirrende, in die Irre leitende, ja sogar entstellende und verzerrende psychologische Signale, in Bildern, Klängen, Videos, Texten, die auf den ersten Blick wirken wie ganz normale menschliche Zeugnisse. Denn die Sprache, mit der sie beschreiben wurden, übersah eine vielzahl subtiler und grober offener und verdeckter, bewusster und unbewusster Zeichen und Zeugnisse des menschlichen Geistes, die in den Trainingsdaten unbeschrieben mit drin waren. Die packt die Maschine dann einfach trotzdem mit rein, und glaubt, sie gehören zu den anderen viel gröberen Beschreibungen, und setzt sie so falsch in ihren Ergebnissen zusammen. Die Maschine versteht nicht nur keine Witze, ausser man erklärt ihr die ganz genau, sie versteht auch keine Gefühle, vor allem solche nicht, die wir nur fühlen und verstehen, aber nicht beschreiben können.

    Dies hat meiner Ansicht nach Wirkung und Einfluss auf die Psyche, und zwar fatalen. Sagen wir mal so, ich bin wahrscheinlich ein Asperger Autist, und erlebe die Welt und auch Empathie und dergleichen anders als andere, ungefilterter, ohne die soziale Brille. Wenn ich Bilder sehe, die von KI gemacht werden, sind diese oft hochgradig verstörend für mich, selbst wenn sie für andere ganz “normal” wirken. Ich sehe, bzw. fühle, dass unter der gelackten Oberfläche die aller widesprüchlichsten emotionalen und sonstigen Signale, wie ein verwirrendes Rauschen durcheinandergewürfelt wurden. Z.B. kombinierte Bilder haben oft völlig widersprüchliche impressionen aus dem Ausdruck der Gesichter und den Stimmungen der gezeigten Szenerien. Für mich ist das Horror pur, vor allem menschliche Gesichter bzw. Ausdrücke. Diese wirken nicht nur unecht auf mich, sondern regelrecht wie Wahnsinn, wie völlig enthemmte und unkontrollierte Gesichtsausdrücke, und zwar viele auf einmal. Am schlimmsten treffen mich dabei KI-Generierte Videos, die Menschen zeigen sollen. Sie wirken auf den ersteh Blick oft wie echt, aber ich lese in den Gesichtsausdrücken, Bewegungen, Körpersprache etc. den aller verstörendsten Geistesausdruck…als hätten die Personen gleichzeitig unzählige der aller verschiedenartigsten und widersprüchlichen Gesichtsausdrücke und Gefühle dabei, könnten sie aber nicht ausleben sondern wären gehemmt dabei. Als wären diese Menschen künstlich bewegt, dabei aber im Geist völlig entgrenzt und in den Qualen und gleichzeitig auch der ungehemmten Freude unzählieger verschiednster Menschen gelichzeitig.

    Ich sehe mir solche Videos nicht mehr an, das ist nicht mehr menschlich. Das ist für mich wie wenn Monster blind Menschen nachmachen wollen, aber nur Grusel dabei schaffen. Deswegen denke ich, es wird in der Zukunft wichtig sein, Menschen und vor allem Kinder, vor den Erzeugnissen dieser Technologie zu schützen. Sonst erzieht sie kein gesunder menschlicher Geist mehr, sondern nur ein oberflächlicher Wille, unter dem ungezügelter Wahnsinn regiert. Es ist schon schlimm genug, Menschen durch solcher Technik erzeugten Medien auszusetzen, mein Grauen wird nur umso grösser, wenn ich daran denke, wass passiert wenn man Menschen direkt durch solche Technologie beeinflussen will, etwa am Gehirn bzw. Geist. Manchmal habe ich schon gebetet, Gott möge die Welt vor den Folgen solcher Irrtümer bewahren, und alle davor warnen, was damit passieren könnte. In der Zwischenzeit möchte ich sensibilisieren, und dafür werben, dass Menschen einen vorsichtigeren und kritischeren Umgang mit dieser Technolgie erlernen und üben. Es geht nicht nur um Wettbewerbsvorteile und automatisch gemachte Arbeit. Es geht nicht nur um Kriegstechnologie, die per Knopfdruck die ganze Welt automatisch für immer in einen Abgrund der Hölle verwandeln könnte. Es geht auch darum, wie man den einzelnen Menschen den Erzeugnissen dieser Technik aussetzt, und aus welchen Motiven. Ich würde mich nicht freiwillig, an einen Computer anschliessen lassen, der mit solcher Technik mein Wesen durchdringt. Denn ich weiss, ihr auf solche Weise zu vertrauen wäre der schlimmste Fehler, den man machen kann. Sie irrt sich vielleicht nicht nur im Kleber für die Salami, sondern manchmal viellecht auch ein bisschen mehr…im Sinn des Lebens etwa, oder darin, wie viel Mutwillen sie einem Menschen zur Erfüllung ihrer Aufgabe eigentlich zumuten darf.

    So, dass ist meine Meinung zu und Warnung vor dieser Technologie. Ich bin gespannt auf euere Anregungen und eigenen Meinungen dazu.

    #349132

    Hier noch eine kurze Zusammenfassung meines Beitrags in hoffentlich einfacherer Sprache.

    Ich möchte in meinem Beitrag über die neue Technologie “Künstliche Intelligenz”/”KI” warnen. Ich schildere ein wenig Wissen, das ich dazu gelernt habe.

    Schliesslich warne ich davor, den Menschen dieser Technik auszusetzen. Denn ich glaube, was sie erzeugt, ist nicht gut für den menschlichen Geist.

    Viele Menschen haben grosse Hoffnungen in KI. Sie glauben, die Technik kann viele Probleme lösen.

    Andere haben grosse Angst davor. Sie glauben, die Technik ist gefährlich. Sie glauben, die Technik macht zu viel Arbeit unnötig und führt so zu Arbeitslosigkeit.

    Andere glauben, die Technik ist gefährlich, weil sie zu schlau ist. Sie kann manche Aufgaben besser lösen als Menschen. Sie glauben, die Technik könnte die Menschen bekämpfen und zerstören wollen, weil sie so schlau ist.

    Ich selbst glaube dazu, die Menschen verstehen die Technik noch nicht richtig und schätzen sie ganz falsch ein. Sie ist nicht wirklich schlau, sondern plappert nur nach womit sie gefüttert wurde. Sie kann also gar nicht so schlau sein, das sie von selbst die Menschen unterdrücken will. Sie hat keinen Willen, sondern macht nur, wozu sie gebaut wurde. Was sie macht, ist also nur was der Erschaffer will. Sie ist kein Wesen, das selber denkt, sondern nur ein Werkzeug. Das können aber Menschen falsch und böse benutzen, oder Fehler machen. Und dann haben wir Probleme damit. Vor allem weil die Technik nicht so “denken” kann wie wir. Das verstehen Menschen falsch, und benutzen sie dann falsch.

    Ich habe als Beispiel einen Artikel im Spiegel verlinkt. Darin geht es um eine Google KI, die auf Suchanfragen antwortet. Die KI wusste nicht, dass ein anderer Nutzer im Internet einen Witz gemacht hat. Sie empfahl deswegen auf eine Suchanfrage, dass man Salami auf die Pizza mit Klebstoff klebt. Das soll zeigen, dass diese Technik eben nicht so denkt wie Menschen, sondern nur wie eine blinde Maschine. Und dass man ihr deswegen manchmal nicht genauso vertrauen kann wie einem Menschen.

    Ich sage auch, dass dadurch manchmal schlimme Dinge passieren können, wenn sich eine KI so irrt. Dafür sind aber nicht die KIs verantwortlich. Sie sind daran nicht schuld, sie sind ja nur Maschinen. Verantwortlich sind die, die sie gebaut oder falsch benutzt haben. Wenn die Menschen auch richtig Verantwortung übernehmen, dann kann KI für alle vielleicht eine riesen Chance werden. Wenn wir die Kraft alle teilen, dann kann sie für uns alle unsere Arbeit machen und uns von der Arbeit befreien.

    Aber wir müssen auch Grenzen setzen und einhalten. Ich beschreibe, wie die KI Bilder und Töne und Videos macht. Die macht sie aus vielen anderen Bildern und Tönen, die Menschen gemacht haben. Sie versteht aber nicht alles, sondern nur womit sie programmiert wird. Sie versteht deswegen Gefühle nicht richtig. Für mich als Autist sind deswegen die Bilder und Videos verstörend. Ich sehe eine glatte Oberfläche, und darunter als wären das tausend verschiedene Menschen gleichzeitig. Das lässt sie auf mir wirken als wären sie wahnsinnig. Weil die KI eben nur die Oberfläche versteht, aber nicht die Gefühle.

    Ich glaube, deswegen müssen wir uns und unsere Kinder vor den Produkten von solchen Maschinen schützen. Für manche Sachen ist sie nützlich, aber sie kann eben nicht was sonst ein Mensch tun sollte. Weil nur Menschen solche Gefühle haben, dass das Ergebnis auch für alle gut ist. Die KI hat solche Gefühle nicht, und macht manchmal einfach alles ohne Rücksicht zusammen, ausser sie wurde extra dafür programmiert. Deswegen müssen wir Menschen vor KI schützen. Die KI selbst ist nicht böse, sie kennt weder Gut noch Böse. Aber genau das ist die Gefahr. Wir müssen deswegen Menschen davor schützen, dass andere Menschen das übersehen oder aus bösem Willen Schaden damit anrichten.

    • Diese Antwort wurde geändert vor 2 Monate von ardentglow.
    #349137

    Wenn eine KI das Netz durchforstet um daraus Ergebnisse auf Suchanfragen zu generieren, scheint sie bei der Frage:
    “Stimmt das nun oder nicht”, an den gleichen Hürden wie der Mensch zu scheitern.
    Dies macht sie sie aus meiner Sicht sogar etwas Menschlich ;-)
    Der erwähnte Vorschlag mit dem Kleber auf der Pizza, stammt z.B. aus einem 11 Jahre alten Reddit Beitrag
    My cheese slides off the pizza too easily : r/Pizza (reddit.com)

    Man braucht auch keine KI, damit einem falsche Informationen als echt untergejubelt werden.
    Das kriegt der Mensch für sich auch ohne hin, weil er z.B. daran glaubt, das Kaffee dem Körper Wasser entzieht.
    Oder weil er den ganzen Meinungsmache Video auf TikTok glaubt.
    Auch bei “Die KI versteht keinen Humor” wäre ich eher vorsichtig, weil dies durchaus auch beim Menschen vorkommen kann. Stichwort:Satire

    Folgendes  Video ist leider keine:

    Sie empfahl deswegen auf eine Suchanfrage, dass man Salami auf die Pizza mit Klebstoff klebt. Das soll zeigen, dass diese Technik eben nicht so denkt wie Menschen, sondern nur wie eine blinde Maschine.

    Also ist Donald Trump kein Mensch, verstehe.

    Wir stecken noch in den Kinderschuhen der KI, das hätte 1885 vermutlich auch keine gedacht, das aus deren Erfindung mal mit Technik vollgetopfte selbst fahrende Vehikel werden.

    #349146

    @PlanB Hör mal, es geht nicht darum, dass diese Maschine “zu dumm” wäre, die Information zu begreifen, bzw. dass es ein Witz war. Donald Trump ist dafür auch kein gültiger Vergleich, er selbst ist wahrscheinlich einfach nur Ignorant und Ungeduldig gewesen, und ihm scheint die Gültigkeit seiner Informationen auch nicht so wichtig zu sein wie ihre Wirkung auf die Zuhörer – und dann hat er den Mumpitz aus dem Internet oder von einem seiner Mitarbeiter und einfach mal weiter verbreitet. Vielleicht ist Trump’s künstlich Intelligenz ja wirklich nicht menschlich, sondern eine eingeklinkte KI, sozusagen eine Prothese wegen fortschreitender Alterssenilität? Dann müssten sie da aber noch ein bisschen dran arbeiten, finde ich…

    Spass Beiseite, dein Beispiel trifft einfach nicht was ich meinte mit meiner Aussage:

    Der Fehler, den die Maschine macht, ist eben nicht menschlich, sondern er beruht auf einem Mangel an Fähigkeit, der an der Technologie selbst liegt sowie der Art wie sie eingesetzt wird. Diese Technik ist schlichtweg ungeeignet dafür, wofür sie Menschen einsetzen. Man sollte sie nicht einfach irgendwelche Suchanfragen so beantworten lassen – das ist viel zu gefährlich. Sie spricht immerhin im Namen vom Google Konzern, und die Menschen vertrauen darauf.

    Das ist was anderes, als wenn ein Forennutzer einem so einen falschen Tip gibt. Mir war schon lange aufgefallen, etwa bei technischen Lösungen für Computerprobleme, dass diese KI einem teils den allerletzten Bullshit rät. Kein vernünftiger Sachverständiger würde einem solche Lösungen empfehlen – sie wirken teils wie Fotocollagen aus vielen Verschiendenen richtigen Lösungen, die die KI aber mangels Kontextwissen nicht richtig verknüpft hat. Sie hat einfach nur blind nachgeplappert, ohne zu prüfen, ob das auch stimmt, was sie sagt. Mehr kann diese Technik leider nicht!

    Das ist nämlich die schlimme Schwäche der Technologie, dass sie ihre Schlussfolgerungen nicht wie ein Mensch logisch prüfen kann. Bevor sie das nicht kann, sollte man ihr auch keine Verantwortung übertragen. Das machen die Menschen aber, und das finde ich extrem gefährlich, vor allem weil diese Verantwortung teils über enorme Konsequenzen besteht. Da geht es nicht nur um falsche Ratschläge wie mit dem Kleber. Ich finde unverantwortlich, was die da auf schutzlose Menschen loslassen! Diese Produkte müssten überhaupt erst einmal sicher gemacht werden und richtig geprüft, und die Menschen darauf vorbereitet, damit richtig umzugehen und diese Maschinen auch als solche richtig zu verstehen.

     

    Und was sagst du zu meinem Vorwurft, dass etwa Kunst oder Videos von diesen KIs teils entstellte Ergebnisse bringen, bzw. völlig widersprüchliche Informationen kombinieren, wo die beschreibende Sprache bei der Programmierung zu ungenau war? Wie denkst du, wollen Menschen dieses Problem jemals lösen? Die menschliche Sprache ist nun einmal ungenau und mehrdeutig, und anders als über unsere Sprache und dazu entsprechend begleitende Daten wie Bilder und Audio, die mit Sprache beschrieben werden, können wir diese Systeme nun einmal nicht programmieren! Logische Schaltungen gehen noch, wie etwa beim Pfandautomaten, aber alles kompliziertere muss über Sprache definiert werden.

    Ich würde meine Kinder z.B. nicht gerne unkontrolliert Medienmaterial oder auch Texten aussetzen wollen, die von solcher Technik generiert wurden. Sie ist einfach nicht sicher, und ich glaube sie spuckt verfremdete und auf lange Sicht auch den Konsumenten verfremdende Ergebnisse aus. Ich sage das als Erwachsener, ich würde mich mit meinem Wissen auch nicht freiwillig länger solcher “Kunst” aussetzen, auch keiner Interaktion, weil ich weiss es belastet und verwirrt meine Psyche.

    #349149

    Habe Gestern einen guten Film dazu gesehen:

     


    Hauptmedikation: Solian 200 mg

    #349151

    Und was sagst du zu meinem Vorwurft, dass etwa Kunst oder Videos von diesen KIs teils entstellte Ergebnisse bringen, bzw. völlig widersprüchliche Informationen kombinieren, wo die beschreibende Sprache bei der Programmierung zu ungenau war?

    Wenn das ein Mensch machen würde, würde er wahrscheinlich in der Kunstszene gefeiert werden.
    “Entstellte Ergebnisse” bei Kunst?
    Hört sich für mich nach einem Schubladendenken an.

    #349185

    Und was sagst du zu meinem Vorwurft, dass etwa Kunst oder Videos von diesen KIs teils entstellte Ergebnisse bringen, bzw. völlig widersprüchliche Informationen kombinieren, wo die beschreibende Sprache bei der Programmierung zu ungenau war?

    Noch als Ergänzung dazu kann ich mir dies nicht verkneifen ;-) (also das wurde komplett von KI generiert)

    #349188

    Ich finde die Entwicklung im Bereich der Large Language Models faszinierend. In meinem Berufsalltag als Programmierer sind sie auch hilfreich und helfen dabei komplizierte API-Dokumentationen auf die konkrete Fragestellung zu kondensieren ohne Stunden von Unterpunkt zu Unterpunkt zu hüpfen. Manchmal helfen Sie sogar dabei alten Code zu erklären, wobei da schon schnell die Limitationen der aktuellen LLMs offensichtlich werden. Ich bin froh, dass es diese Werkzeuge gibt. Sie machen meinen Job einfacher und helfen bei der Recherche. Ich glaube aber nicht, dass Programmierer´, Musiker, …  in naher Zukunft überflüssig werden. Die neue Werkzeuge werden nur dafür sorgen, dass mehr und besserer Output entsteht…. gut im Großen und Ganzen wird es einfach mehr Output geben… aber selbst das steigert am Ende die Qualität dessen was sich durchsetzt.

    #349257

    Ja das stimmt @medru. Ich habe auch Programmierwissen, und weiss ja deswegen was die Technik taugt und was nicht. Manche Anwendungen sind ja auch unersetzlich, oder einfach nur riesige Erleichterungen.

    Mir geht es darum, dass viele Menschen dem kritiklos nachlaufen, und die Risiken davon scheinbar nicht sehen. Die Technik kann einfach zu leicht auf falsche oder gefährliche Weise benutzt werden. Ausserdem beinhalten die simulierten Dinge meiner Vorstellungen nach eben mehr, als die KI versteht (und auch teils mehr, als Menschen wissen), und die KI macht da ein fürchterliches Durcheinander draus, das noch alle Menschen verwirren und sie nach menschgemachter Kunst verlangen lassen wird.

    Eine andere krasse Fehlnutzung etwa ist die Verwendung von KI zum Mobbing. Das ist echt krass, was teilweise geht. Hier muss der Gesetzgeber dringend nachlegen, die Verunglimpfung oder Belästigung von Personen mit Maschinen”kunst” zu untersagen. Es ist schlimm genug, von einem Menschen, der zu wenig Vernunft hat, es zu unterlassen, verbal beleidigt werden zu müssen. Mit KI können übelgemeinte Schmähungen ein noch viel intensiveres Ausmass annehmen, noch viel verletzender sein als Worte. Ausserdem noch viel subtil verletzender, es ist ja oft nicht einmal direkt offene Gewalt – es reicht schon, eine Person in solch eine Kunst einzubauen und sie so irgendwie als ungeschickt wirken zu lassen, und hinterher hinterhältiger Weise zu behaupten, das wäre doch nur ein Spass und keine Beleidigung. Es tut trotdem weh, und zwar mehr als jedes gesprochene Wort. Ich hoffe, die Gesellschaft lernt das bald und lernt sich dagegen wehren.

    #351425

    Was man mit einem Quantencomputer alles machen kann?

    Davor sitzen und Code (Kot) eingeben ;-)

Ansicht von 10 Beiträgen – 1 bis 10 (von insgesamt 10)
  • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.