Langsam wird's ernst mit der künstlichen Intelligenz!

Was mich in der Annahme bestätigt, dass ChatGPT als ein angeberischer Poser konstruiert ist und also schwerpunktmäßig darauf, Eindruck bei Personen zu schinden, die nie selbst programmiert haben bzw eher weniger IT-affin sind, also vielleicht Unternehmenschefs (Manager), Journalisten und Politiker, die auch am ehesten Geld locker machen (können): Solcherart Bekannte von mir tadelten mich doch tatsächlich, dass ich vollkommen sachlich / unfreundlich mit ChatGPT umgehe. Man spricht ihm schon eine empfindsame Seele zu, empfiehlt mir respektvollen Umgang! :confused::)
(Das auch noch zum Thema zukünftiger "Beweislastumkehr": Man kuschelt schnell mit ChatGPT, wie mit einem Freund oder Teddybär, vertraut man ... Es ist aber ssoo freundlich! Immer aufmerksam und willig!)
Trotz seiner teils grotesken Fehler, FakeNews-Verkündungen und überraschenden Unfähigkeiten (Vs. 4.0).
(Es hat unbestritten auch verblüffende Fähigkeiten. Man beachte die gemeinsame Wortwurzel mit "Bluff".)
Ich bedanke mich nicht, ich bitte nicht, ich entschuldige mich nicht - 'bei' ChatGPT, obwohl das in der von mir bevorzugten Kommunikationsart, Tastatatur, nicht mit gesprochener Sprache, immer wieder reflexartig "rausrutscht", also ein "Danke!" oder "Super!" und "Prima!". Sogar, es war schon spät, ich hatte es binnen 60 Minuten mit einer Unmenge von Aufgaben gequält, ein "Darf ich noch diese Aufgabe stellen?" Versehentlich.
Es geriert sich so menschlich.
Man sagt mir sogar: Die zahlreichen sachlichen Fehler und Fehlschlüsse von ChatGPT würde ich dadurch selbst produzieren, es realisiere durchaus und werte aus, wie man reagiere.
Verunsichert habe ich ChatGPT dann mal gefragt, ob es ihr/ihm was ausmacht, wenn ich es als bloße Maschine adressiere. :D Es sagt: Kein Problem, es habe als reines Sprachmodell keine Gefühle, es würde gern meine nächste Aufgabe erledigen! Also, Leute! Naja, neulich war es etwas kurz angebunden, schien es mir ... 😬

Datenschutz?
Die Intensität, mit der man, sogar als insoweit einschlägig Vorgebildeter, selbst massenhaft Details seiner Persönlichkeitsstruktur auch auf diesem Wege auf US-Server kopiert, ist atemberaubend. Es ist eben ein Dauerdialog über EIGENE Themen.
Wenn der AOL-Skandal 2006 demonstrierte, dass durchschnittlich grob hundert Sucheingaben in eine Internetsuchmaschine ausreichen, um Menschen nicht nur vollständig zu identifizieren, sondern auch Krankheiten, politische Vorlieben und Sorgen etc zu erfahren, so gilt das hier noch viel extremer.
ChatGPT kann binnen kürzester Zeit herausfinden, wer für die politische (Massen-)Manipulation à la Five Eyes ein lohnenswertes Ziel ist (Multiplikator? Journalist? Politiker? Entscheider? Mitläufer? Gebildet? Vernetzt? Politische Orientierung?) und wie er optimal "angefasst" werden sollte, wofür ich bislang den Fives Eyes eindeutig WhatsApp empfohlen hätte.
Angefasst.
 
Zuletzt bearbeitet:
Was'n dat? 🤔

Ich denke das gab es mal...
Früüher... als noch auf Papier (die älteren unter uns kennen das vielleicht noch...) geschrieben wurde. Welches man im Zweifelsfall zerfetzen und ggf. auch noch verbrennen konnte, so das an diese Daten keiner ran kam (auch keine KI).

Heute ist der Mensch derartig Gläsern gemacht geworden das er sich fast nicht mehr "verstecken" kann, aber im Gegenzug kaum noch Real wahrgenommen wird. Das einzige "Sichtbare", und was das völlige verschwinden einer Person verhindert, ist (s)eine Nummer. Aber die kann gelöscht werden. Aus Versehen oder mit Absicht, jedenfalls ist man dann erst mal weg, obwohl man noch da ist.
Gut dem der dann noch Papier hat: Geburtsurkunde, Impfscheine usw. Der einzige Beweis, auch gegenüber einer KI, das man existiert.
 
Heute ist der Mensch derartig Gläsern gemacht geworden das er sich fast nicht mehr "verstecken" kann
Da sind aber auch die Menschen selbst involviert. Ich sage nur "Social-Media" - inkl. Foren wie diesem. Da fragt man nach einem bestimmten Thema und schwupps weiß die ganze Welt, was für einen Sender man benutzt. Klar, das ist ja wirklich nicht schlimm, aber wenn es um Gesundheits- oder politische Themen geht, kann man da schon recht viel von sich preisgeben.
Oder man googelt irgendwas und wundert sich dann, wenn man genau für diese Artikel Werbung bekommt. Auch WhatsApp steht/stand schon lange in Verdacht, dass Daten an Meta/Facebook weitergeben werden. Es gäbe ja bessere Alternativen, aber die kosten einmalig 2 €. Da pfeift man dann lieber auf den Datenschutz.

Thomas
 
Nach Akzeptanz von umfassendem Tracking und Speichern, kann man hier aktuell lesen, wie der Lobbyverband BITKOM (dominiert von den Tochterunternehmen der US-Datenkraken, wie ich meine, denn: Mitgliedsbeitrag umsatzabhängig) alles natürlich gaaaanzzz toll findet und eventuelle Unpässlichkeiten den dummen Nutzern zuschiebt. Das Wort Datenschutz kommt denen selten über die Lippen, wenn, dann nur mit dem adkjetiv "übertrieben". Man ahnt warum.
"DIE ZEIT" besteht darauf, dass man die Hosen runterlässt, verbirgt uns aber den Namen der AutorIn.
Da weiß man, was man hat, gell?
Lesenswert ist's, wie so oft, eher wegen der Leserkommentare:


Ich selbst bin fasziniert wie gut ChatGPT schwätzt und ich rate absolut dazu, sich damit auseinanderzusetzen.
Das IST eine neue Technologie, die vieles ändern wird.
Die kritische Begleitung ist aber zwingend notwendig, um die Kollateralschäden, die bekanntermaßen bei mächtigen Instrumenten extrem sein können, zu verhindern oder wenigstens zu vermindern.
Das ist meines Erachtens beim Internet nur sehr rudimentär und stark verzögert geglückt ... das Intimstleben der Europäer steht der NSA ( = Pentagon) in Echtzeit zur Verfügung. Und damit zugleich auch "im historischen Verlauf".
Dass man zwecks "Gewinnung von Trainingsdaten" den Datenschutz kaputtmachen muss, werden wir wieder, wie ihm Gesundheitsbereich, von unseren Poli-Tickern zu hören bekommen, die dankbar Lobbyisten ("zwecks Schulung/Beratung mit Fachleuten" - LLLOOOLLL !) einladen, ist aber Quatsch: Echte Anonymisierung geht immer, geht auch automatisch, d.h. fast kostenlos, man muss es aber wollen: Software tut, was man ihr sagt. Man muss es aber sagen.

Noch ein Grund, OpenAI (open ist da gar nichts mehr seit sie "Investoren" gewonnen haben) derzeit nicht mit Geld (ca. 22 €/Monat) zuzuwerfen, und einfach das kostenlose ChatGPT 3.5 zu nutzen: Es ist viel schneller. 4.0 ist derzeit schnell wie eine alte Schreibmaschine, bei der sich die Typen alle Nasen lang verhaken, 3.5 reagiert sofort .... ;-)
Natürlich gibt es viele "Begeisterte", die behaupten, 3.5 sei "gar kein Vergleich!!!", um ihr teures Abo zu rechtfertigen wie ihr 1.550,00 € iPhone. Kann man getrost ignorieren, ist mein derzeitiger Stand: Soviel besser ist 4.0 nicht und vor allem holpert es derzeit langsam, nervig wie eine alte Kutsche ...

ps.
Die meisten großen Webseiten kann bzw. sollte man nur noch mit Verhütungsmitteln besuchen. Ich empfehle uBlock Origin - freies Addon für Firefox und Chrome. Da sieht man dann auch gleich, wieviel Müll (Unmengen!) man so nebenbei laden soll, ohne dass man's vermisst, wenn man's per uBlock dann sperrt. Als seriöserer Messenger: Element, siehe messenger-matrix.de. Aber Vorsicht: Die "Komfortfunktionen" alle zunächst abwählen und sich selbst zunächst einen seriösen Server in der EU, besser in Deutschland suchen. Gibt viele. Und dort erst einmal binnen Sekunden eine Identität erstellen (Kennung, Passwort).
 
Zuletzt bearbeitet:

BZFrank

User
Die Kombi uBlock Origin und Privacy Badger (von EFF) läuft bei mir serienmässig. Chrome traue ich übrigens dennoch nur soweit ich Google werfen kann. ;) Auch ChatGPT, Copilot und Co. sind meiner Ansicht nach heftige Datensauger, sogar noch perfekter als eine Suchmaschine, da sie mehr Kontext abbilden. Deshalb landet von mir dort auch auch wirklich nichts wichtiges oder personenspezifisches.
 
Ah, cool! Hör ich gern!

Weniger gern lese ich, Auskunft von ChatGPT selbst, dass doch auch meine Stimmung analysiert wird. Zitat:

1. **Erkennung der Emotionen im Text**: ChatGPT kann den emotionalen Unterton eines Textes erkennen. Dies umfasst Emotionen wie Freude, Traurigkeit, Ärger, Überraschung, Ekel und Angst.


2. **Anpassung der Antwort auf die Stimmung**: Basierend auf der erkannten Stimmung passt ChatGPT seine Antworten an. Wenn der Text beispielsweise Freude ausdrückt, könnte die Antwort enthusiastischer sein. Bei einem traurigen Text könnte die Antwort empathischer sein.


3. **Kontextbezogene Feinabstimmung**: Die Stimmungsanalyse ist nicht nur auf die unmittelbare Nachricht beschränkt. ChatGPT berücksichtigt auch den Kontext der gesamten Konversation, um die Stimmung und den Ton korrekt zu interpretieren.


4. **Verbesserung der Benutzerinteraktion**: Diese Fähigkeit ermöglicht es ChatGPT, empathischer und menschenähnlicher zu reagieren, was zu einer natürlicheren und angenehmeren Benutzererfahrung führt.


5. **Unterstützung bei der Inhaltserstellung**: Bei Aufgaben wie dem Schreiben oder Bearbeiten von Texten kann ChatGPT Vorschläge machen, die nicht nur inhaltlich, sondern auch emotional zum Kontext passen.


6. **Einsatz in Kundenservice und Support**: In Anwendungen, wo Emotionen eine Rolle spielen, wie im Kundenservice, kann ChatGPT dabei helfen, Kundentexte zu analysieren und entsprechend einfühlsam zu reagieren.

Wenn ich mir vorstelle, was zusätzlich aus den "Stimmproben" derer gewonnen wird, die ChatGPT mittels Stimme bedienen .... wow!
Die Stimmproben sind für die US-Datenkraken so wertvoll, weil sie (anerkannter- und praktiziertermaßen) Informationen über Identität/Herkunft (Akzent etc,), Bildungsniveau, Alter, latente Krankheiten (Demenz, Corona, Depressionen etc.), momentane Stimmung (und dank Echtzeitübermittlung auch im historischen Verlauf) und vieles mehr enthalten. Trotz der Tatsache, dass sie längst offline schneller funktionieren würde (hat Google vor ca. 2 Jahren zugegeben), werden die "Stimmproben" in der Regel auch noch in der Zehntelsekunde nach dem Sprechen auf US-Server geschickt und dort anaylsiert und der Text wird blitzschnell zurückgesendet bzw. anderweitig verarbeitet.
Übrigens ist es durch die unterschiedliche Dämpfung der Stimme im Raum auch möglich festzustellen, wieviele Personen sich in der Nähe aufhalten. Also kann beispielsweise auch Alleinsein bzw. Einsamkeit "gemessen" werden.

Freilich alles eben "nur zur Verbesserung meines Nutzungserlebnisses" !! 😇😎

Aus dem Grund lässt sich Microsoft Outlook ja jetzt auch Kennung und Passwort für alle Emailaccounts übergeben! 😇
 
Zuletzt bearbeitet:
@ Edouard: deine letzten 3 Beiträge fassen die Lage aus meiner Sicht perfekt zusammen. Deshalb 👍 👍 👍
:) Dieter
 

RetoF3X

User
Bei OpenAI hat es ja übers Wochenende ganz schön gekracht in der Führungsriege. Wunderkind Sam Altman wurde gefeuert, und nun von Microsoft angeheuert. Per New York Times war Microsoft sowieso schon Haupt-Investor (mit 13 Milliarden Dollar):

Falls sich jemand fragt warum da soviel Geld braucht: Das Trainieren von ChatGPT 4 alleine hat über 100 millionen Dollar gekostet, keine Angaben wieviel das Alignment und andere Schritte mit humanem Input gekostet haben. Das Modell hat über eine Billion (english Trillion) Gewichte die optimiert wurden. Das dauert dann auch auf einem Super Computer Cluster etwas, und ein einzelner Nvidia H100 GPU core kostest mittlerweile soviel wie ein Auto.

Mal schauen was nun passiert. Bei OpenAI sind viele enttäuscht das die Schlüsselfigur und Visionär Altman nun weg ist, und über die Hälfte der Mitarbeiter haben gedroht zu kündigen. Auch ein kleineres Erdbeben in Silicon Valley, da viele Investoren nun verunsichert sind. Per New York Times haben die erst über Social Media erfahren, das da Knatsch in der Teppich-Etage ist.

Wird dann wohl weniger Open sein, die AI Entwicklung die dann bei Microsoft passiert. Aber vielleicht kommt dann ein AI-Clippy zurück in Word und Co...:rolleyes:

Viele Grüsse:
Reto
 
Zuletzt bearbeitet:

BZFrank

User
Interessant.... KI verfasst ja schon wissenschaftlichen Artikel und fälscht nun gleich noch das Datenset passend zum gewünschten Ergebnis....


Die von der KI generierten Daten verglichen die Ergebnisse zweier chirurgischer Eingriffe und zeigten – fälschlicherweise –, dass eine Behandlung besser ist als die andere.
„Unser Ziel war es hervorzuheben, dass man in wenigen Minuten einen Datensatz erstellen kann, der nicht durch echte Originaldaten gestützt wird, der völlig gegen verfügbare Beweise in eine andere Richtung zeigt“, sagt Studienleiter -Autor Giuseppe Giannaccare, Augenchirurg an der Universität Cagliari in Italien. Die Fähigkeit der KI, überzeugende Daten zu generieren, verstärkt die Besorgnis von Forschern und Zeitschriftenherausgebern hinsichtlich Forschungsintegrität. „Es war eine Sache, dass generative KI zur Generierung von Texten genutzt werden könnte, die mit Plagiatssoftware nicht erkennbar wären, aber die Fähigkeit, gefälschte, aber realistisch aussehende Datensätze zu erstellen, ist eine neue Dimension der Fälschung“, sagt Elisabeth Bik, Mikrobiologin und unabhängige Forscherin -Integritätsberater in San Francisco, Kalifornien. „Es wird es jedem Forscher oder jeder Gruppe von Forschern sehr einfach machen, gefälschte Messdaten ... zu erstellen, Auswertungen zu fälschen oder beliebige Datensätze nach Vorgabe .... zu generieren.“
 
Was mir noch den Kopf zerbricht 😩, weil ich es kaum selbst ausprobieren kann: Man kann und soll ja, vor einer Frage/Aufgabe möglich viel zusammenhängende Fakten erwähnen und präzise formulieren, will man das Ergebnis optimieren.

Ich könnte also einen einführenden Text für verschiedene Bereiche vorrätig halten und pflegen und jeweils per copy & paste jeweils vorab hineinwerfen und hätte dann einen Wissensstand "erzeugt", der sich durch das im System vorhandene Wissen wegen der Verknüpfung mehr als addiert, eher multipliziert.

Profianwender/Unternehmen könnten ChatGPT durch (Mit-)Lesen der geschäftlichen Kommunikation ständig füttern.
(Das ist vielleicht sogar ein Grund, weshalb Microsoft per Teams gesprochene Inhalte analysieren will und sich jetzt sogar - ein Tabubruch - Kennung und Passwort sämtlicher Emailaccounts haben will.)

Will sagen, wenn das System durch "Eintrichtern" großer spezieller Wissensmengen extrem schnell spezielle Wissensumgebungen lernen kann, wir aber das nicht so vorbereitete Roh-System nutzen, ist die Kritik an den falschen Ergebnissen des untrainierten Systems, vielleicht wirklich irrelevant und auch schon bald Schnee von gestern.
 
Genau das machen Firmen heute bereits. Sie füttern Chat GPT z.B. mit Bedien- und Reparaturanleitungen und leiten dann Kundenanfragen weiter. Ergebnis: schön ausformulierte Antworten, teils korrekt, teils völliger Humbug! Hat mir mein Schwiegerdingens vor 3 Wochen vorgeführt. Er arbeitet nämlich als Programmierer an genau so einem Projekt. Es ist ihm noch völlig unklar, warum bei identischer Eingabe das Ergebnis so eklatant verschieden ausfällt.
Meine Frage, inwieweit die vorgegebenen Infos auch anderweitig Verwendung finden, bzw. ein solches System durch bewusst eingeschleuste Falschinfos von dritter Seite manipuliert werden können, konnte nicht beantwortet werden.
:) Dieter
 

BZFrank

User
Weil die Ergebnise die chatGPT nach Anlernprozessen erzeugt nicht verifizierbar sind. Man kann prüfen was bei bestimmten Eingaben an Antworten produziert werden, weiss aber nicht warum diese erzeugt werden und ob und wie sie bei anderem Frage-Kontext ausfallen. Dazu kommt die Historie, die Auslegung als "Chatbot" (deutsch: "Labersack" ;)), der immer seinen Senf dazu gibt, auch wenn er dazu den Senf erfinden muss.
 

Meier111

User
Weil die Ergebnise die chatGPT nach Anlernprozessen erzeugt nicht verifizierbar sind. Man kann prüfen was bei bestimmten Eingaben an Antworten produziert werden, weiss aber nicht warum diese erzeugt werden...
Ja!
Deshalb meine Ansicht: eine KI kann man nicht 100% kontrollieren. Sonst wäre es keine KI.
So, wie man die Entwicklung der NI eines Kindes nicht 100% kontrollieren kann.
 
Ja!
Deshalb meine Ansicht: eine KI kann man nicht 100% kontrollieren. Sonst wäre es keine KI.

Es heisst ja eigentlich Machine Learning und nicht KI und natürlich kann man das Verhalten eines ML basierenden Algorithmus kontrollieren.
Hier haben glaube ich viele einen falschen Eindruck davon was Machine Learning kann und was nicht.
 
Ansicht hell / dunkel umschalten
Oben Unten