Fangen wir mit den aus Arbeitgebersicht zweifelsohne positiv zu wertenden Eigenschaften des (oder der?) neuen Mitarbeitenden an: Nie wird die Forderung nach einer Lohnerhöhung zu hören sein, nie die Klage über zu viele Überstunden, nie werden Kellnerbleistifte nach Dienstende auf Nimmerwiedersehen in den Hosentaschen verschwunden sein, und ebenfalls nie wird sich künftig das Personal gewerkschaftlich organisieren, auch die Beiträge zur Berufsgenossenschaft können eingespart werden. Verspätung? Kein Thema mehr. Draußen „mal eben” eine Zigarette rauchen, während sich drinnen Teller und Gläser stapeln? Vergiss es!
Willkommen im Fortschritts-Hotspot Kleve!
Vor wenigen Wochen dachten die Bürger der Stadt noch, dass der Straßenstaubsauger Gluton H2O der Umweltbetriebe der Stadt Kleve der Gipfel des technologischen Fortschritts ist, und nun kommt es Schlag auf Schlag. Mittlerweile ist auf dem Klever Friedhof die Sargträgerdrohne im Einsatz, die ferngesteuert ohne menschliche Trageleistung schwere Särge bis zum Grab kutschiert. Dann kam Netto mit der ersten Selbstscanner-Kasse im Stadtgebiet, in der vergangenen Woche preschte Edeka Schroff vor und nahm im Supermarkt am EOC gleich sechs dieser Kassen in Betrieb. Doch all dies erscheint gerade lächerlich gegenüber einer technologischen Neuerung, die seit der vergangenen Woche im China-Palast an der Flutstraße im Einsatz ist: Ein Servier-Roboter bahnt sich in dem asiatischen Restaurant seinen Weg vom Grill zum Platz der Gäste!
Das Gerät sieht aus wie ein fetter Staubsaugerroboter auf LED mit angeflanschter Étagère. Ein Display gibt es auch noch, das im Fahrbetrieb zwei blaue Kulleraugen simuliert und darunter nicht gerade elegant formulierte, aber sachlich korrekte Botschaften mitzuteilen versteht: „Fahrbetrieb nach 63“. Aus einem Lautsprecher kommen zudem Sprachbotschaften: „Entschuldigen Sie, ich muss arbeiten. Hier ist Ihre Bestellung.“ Der Belieferte darf sich die Teller vom Tablett nehmen, die letzten Zentimeter bis zum Tisch, die sonst ein Kellner erledigen würde, muss nun der Gast übernehmen.
Ist das Fortschritt? Da in der Gastronomie allerorten Personal fehlt, könnte der Roboter zumindest eine Möglichkeit darstellen, den Betrieb überhaupt aufrechtzuerhalten. Natürlich arbeiten im China-Palast auch weiterhin Fachkräfte, die Bestellungen aufnehmen und abrechnen. Aber was spräche dagegen, auch noch ein Bestelldisplay (siehe: McDonlad’s) und einen Kartenleser zu integrieren.
Vor einigen Monaten, als die NRZ mich zu einem Test von Mittagstischen in Kleve auch in den China-Palast schickte, erlebte ich einen zu Scherzen aufgelegten Kellner, der in drei Sprachen seine Gäste mit allerlei Witzen zur Abrechnung routiniert unterhielt. Aber, siehe Chat-GTP, das könnte man dem Gerät auch noch einprogrammieren. Hier der Test:
Erzähle mir einen schönen Kellnerwitz, der für ein chinesisches Restaurant geeignet ist!
Chat-GTP: „Sicher! Hier ist ein klassischer Kellnerwitz, der für ein chinesisches Restaurant geeignet ist: Ein Gast geht in ein chinesisches Restaurant und bestellt eine Portion gebratene Nudeln. Als der Kellner die Nudeln bringt, sagt der Gast: ,Entschuldigung, aber ich habe ein Haar in meinen Nudeln gefunden.’ Der Kellner antwortet sofort: ,Kein Problem, das ist unser neues chinesisches Gewürz – Haar des Drachen!’ Ich hoffe, dieser Witz hat dir gefallen! Bitte beachte, dass dies nur ein Witz ist und dass es wichtig ist, auf Hygiene und Sauberkeit in jedem Restaurant zu achten.“
Man sieht, bis zum perfekten Ersatz der menschlichen Komponente dauert es noch ein wenig, aber wenn man einmal 16.999 Euro für ein Teil investiert hat, das klaglos „bis zu 400 Mahlzeiten am Tag“ zu servieren imstande ist, wie es die Werbung verspricht, kann man schon mal einen mäßigen Kellnerwitz verkraften.
Allerdings, und jetzt kommt es: Für den Patron eines Restaurants oder auch den Inhaber einer Gaststätte gibt es eigentlich nichts Schöneres als nach getaner Schicht den Abend und seine alltäglichen Dramen noch einmal bei einem Getränk zu besprechen („O, x war heute aber gut drauf“), oder nach einigen gut gelaufenen Monaten mit der Belegschaft eine betriebliche Fortbildung zu machen, zum Beispiel in der Stadt, in der das Bier gebraut wird, das ausgeschenkt wird. Das aber dürfte mit drei oder sieben Servierrobotern, selbst wenn sie perfekt auf „Chef-gefallen“-Konversation programmiert sein sollten, eine der trostlosesten Angelegenheiten dieser Welt werden. Dazu braucht es echte Fachkräfte aus Fleisch und Blut – schön, dass es sie gibt, auch wenn sie alle Bleistifte verschwinden lassen!
@78 Das ist ein typischer Fehler von ChatGPT… Personen in ihren Funktionen zu vertauschen oder gar neue Funktionen zu erfinden… oder gleich ganz neue Menschen.
Notfalls erfindet/halluziniert ChatGPT auch Präzedenzfälle incl. Fallakten… warum lange suchen, wenn es doch den Chatbot gibt? Damit haben sich in den USA schon Anwälte vor Gericht blamiert.
Ich weiß nicht, ob ich es schon mal erzählt habe, aber für einen Bekannten hat ChatGPT gleich eine ganze Studie mit konkreten Versuchsergebnissen von fiktiven Teilnehmenden erfunden – und ein Kind eingeschleust, um dann darauf hinzuweisen: Vorsicht, Kind im Datensatz.
Künstliche „Intelligenz“Bestie ### macht Tübinger Journalisten zum Kinderschänder ### !
https://www.swr.de/swraktuell/baden-wuerttemberg/tuebingen/ki-macht-tuebinger-journalist-zum-kinderschaender-100.html
###
Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet.
###
Eine degenerierte Vernunft à la Schnatter-GPT fantasiert GerichtsReporter zum Täter der beschriebenen Verbrechen.
Wie lernt eine KI, dass es hilft wenn man den Blinker einschaltet, falls irgendein Spaßvogel mein Auto (mit Fahrassistenzsystem) gefangen nimmt, indem er auf einem Parkplatz mit Quast und weißer Farbe einen Kasten um das Auto auf den Boden malt?
Dazu gibt es Lehrvideo. Ich lasse den langweiligen Teil weg und springe mal gleich mittenrein. Zur Erläuterung wird hier das Computerspiel ROBOT UNICORN ATTACK genutzt.
https://www.youtube.com/watch?v=JfPzUDO_nCA#?t=3m30s
SoWas wie “ tiefes Lernen “ gibt’s doch schon lange.
Wie sonst könnte die BauernFängerMasch(in)e bei z.B. Amazon funktionieren :
“ Opfer, denen wir diesen Mist überTeuert andrehen konnten,
gingen uns auch bei folgendem auf dem Leim . . . “
Auch google & Co werden sich bestimmt merken,
was sie schon mal gefragt worden sind,
und nicht bei der zigsten Suche nach kleveBlog
wieder bei 0 anfangen.
Mag ja sein, daß ChatGPT nur mit beschränkten Daten bis 2021 TRAINIERT worden ist.
Doch soll „er“ wirklich nicht auch an weitere und auch an neuere Informationen kommen können ?
Wenn Jan en alleman per Google nach TagesOrdnungen, KochRezepten oder BügelAnleitungen suchen,
warum sollte dann nicht auch ChatGPT seinen großen Bruder um Rat fragen ?
interessantes „InterView“ mit ChatGPT über Religion :
https://www.deutschlandfunk.de/chatbot-chatgpt-von-openai-religion-ist-ein-sehr-haeufiges-thema-dlf-3764c7f5-100.html
#72: „…. Chancen ….“
Oops, habe ich da was übersehen?
„Wir kommen nicht drumherum, mit ChatGPT etc. umzugehen.“
Stimmt, und zwar zur Deppenabwehr. Habe gerade gelesen, dass Lehrer bei der Benotung von Hausaufgaben neudings berücksichtigen sollen. dass diese von ChatGPT angefertigt sein könnten.
„Wir können es natürlich auch aussitzen und uns im analogen Nirvana Cannabis rauchend (sinnbildlich) angucken, wie China, die USA, Indien … endgültig an uns vorbeiziehen.“
„…. angucken, wie China, die USA, Indien … endgültig an uns vorbeiziehen.“ Müssen wir jeden Blödsinn mitmachen, nur weil er neu ist? Laßt die doch ruhig ihren ientellektuellen Nachwuchs ruinieren und versauen.
@69 Martin Fingerhut Auf einem Kleider“bügel“ trocknen lassen.
@68 Stefan Schuster „Vorteil“ war objektiv gemeint, nicht als persönliche Wertung.
Was Sie aufzählen, sind reale Risiken, vor allem, wenn es weitere, noch verbesserte Nachfolger gibt.
Es wäre aber falsch, solche Systeme zu verdammen. Mit OpenGPT-X wird es auch bald eine europäische Variante geben.
Es geht darum, die Chancen zu nutzen, die es neben den Risiken gibt. Wir kommen nicht drumherum, mit ChatGPT etc. umzugehen.
Das können Firmen etc. jetzt auch nicht verschlafen, weil es – wenn man die Chancen nutzt – um Wettbewerbsvorteile geht. Der besagte krass performende Mitarbeiter.
Wir können es natürlich auch aussitzen und uns im analogen Nirvana Cannabis rauchend (sinnbildlich) angucken, wie China, die USA, Indien … endgültig an uns vorbeiziehen.
@70 Martin Fingerhut So isses wohl.
Der Energie- und Wasserverbrauch ist eh ein Problem.
@ 67 Anmerkung :
TEORETISCH könnte alles protokolliert werden.
Doch das würde zu gigantischen DatenFluten führen,
die allesamt gespeichert werden müßten.
Schon allein die oberste Schicht,
wie genau so ein TO-Vorschlag von vielleicht 1kB zusammenGestellt wurde,
dürfte es auf etliche MegaByte bringen.
Dazu müßten auch sämtliche Schichten des “ tiefen Lernens “
Schritt für Schritt protokolliert worden sein,
die zu den verwendeten Gewichtungen geführt haben.
Bereits aufGrund des schieren SpeicherBedarfs
weder realisierbar
noch ökologisch vertretbar.
zusätzlich :
Welche(r) Mensch(en) sollten sich durch all die Daten wurschteln ?
Selbst falls gewisse Erkenntnisse gewonnen werden könnten,
daß bei einem Vorschlag etwas nicht optimal lief :
Wie sollte das genutzt werden ?
Ein simpler „patch“ für einzelne Fälle ist entweder wirkungslos
oder er wirkt sich unvermeidlich auch auf andere Fälle aus
– und auf welche alle er sich wie auswirkt,
kann in der Gesamtheit niemand wirklich sicher vorhersehen.
bin neugierig :
Wer bügelt sweatShirts ?
#65 ff:
Mögen Sie Ihre Ansichten behalten, ich teile sie nicht.
Meine Meinung:
Software wie ChatGPT lässt auf Dauer bei Entscheidern die Fähigkeit zur Freien Rede verkümmern.
Rhetorik-Fähigkeiten von Menschen werden selten.
Chat-KIs werden dafür sorgen, dass alle Sprachen der Welt verarmen.
Menschen können noch einfacher manipuliert werden.
Manipulierte Menschen werden noch mehr als vorher davon überzeugt sein, nicht manipulierbar zu sein.
Was ist eigentlich aus jener Chat-KI geworden, die Microsoft 2015 zur allgemeinen Nutzung ins Netz gestellt hatte, aber schon nach 1 Tag wieder zurückziehen musste, nachdem einige wenige Spaßvögel es geschafft hatten, ihr innerhalb kürzester Zeit rechtsradikale und rassistische Argumentationen anzutrainieren?
Link dazu: https://www.faz.net/aktuell/wirtschaft/netzwirtschaft/chat-bot-tay-von-microsoft-dreht-schon-wieder-durch-14151785.html
Ach so, die wurde ‚verbessert‘ und (8 Jahre später) ist nun in Bing integriert?
https://www.tagesschau.de/wirtschaft/microsoft-bing-chatbot-antworten-101.html
Aber es gibt schon eine Lösung: Die Anzahl der Trainer wurde reduziert. Ich bin beeindruckt und beruhigt zugleich. Bestimmt nur ein unbedeutender Einzelfall.
Theoretisch müssten die Entscheidungswege von ChatGPT per automatisiert erstelltem Protokoll festgehalten werden können. Aber
OpenAI dürfte daran kein Interesse haben.
Fun Fact: Chat-GPT weiß nicht, dass sein Nachfolger GPT-4 schon veröffentlicht wurde.
Un der hat es in sich: https://www.golem.de/news/gpt-4-funken-von-allgemeiner-kuenstlicher-intelligenz-2303-172962.html
@63 Stefan Schuster Für die Fälle, die Sie meinen, ist ChatGPT nicht geeignet.
Aber im Finanzbereich sind längst entsprechende KIs im Einsatz. Und das ist problematisch.
https://www.it-finanzmagazin.de/fairness-kuenstliche-intelligenz-kreditvergabe-127418/
Ich hatte mir drei Tagesordnungen ausgeben lassen, teilweise durch Infos ergänzt, aus denen ich dann die passenden TOPs zusammengestellt habe.
Und das funktionierte in dem Fall ziemlich gut. Letztlich muss man als Anwender/in die intellektuelle Bewertung, Auswahl und Nachjustierung vornehmen (intellektuell als Gegensatz zu automatisiert).
Auf der Tagung letzte Woche, auf der ein IT-ler sagte, eine KI sei halt ein Mitarbeiter, der „sehr krass performt“, wurde eine Begrüßungsrede gehalten, die mit ChatGPT erstellt worden war. Hätte die Rednerin es nicht transparent gemacht, wäre es nicht aufgefallen.
Wenn man wie bei ChatGPT die KI bei der Anwendung mit Infos füttern kann, die dann eingearbeitet werden, ist das in vielen Bereichen eine Zeitersparnis und gut zu handhaben. Wer Infos erwartet, die er/sie nicht selber einordnen kann, wird letztlich am Factchecking nicht vorbei kommen. Denn dann ist die KI nur wie jemand, der einem etwas erzählt, das man nicht ohne weitere Prüfung verwenden würde.
Es kommt also auf die Erwartung an. Hat man die Infos, kann man einen Text erstellen lassen, der, ein bisschen überarbeitet, stimmig klingt. Und das in sehr kurzer Zeit.
Darin sehe ich den eigentlichen Vorteil dieser Sprachmodelle.
Prognose: Erhebliche Auswirkungen auf den Medienbereich. These: Journalistisch Tätige werden in vielen Bereichen vor allem noch lektorieren. Überall dort, wo Nachrichten und Sachinformationen der Schwerpunkt sind.
à propos :
Wer hat ChatGPT mit was wie so trainiert,
daß er in #55
DAS Mädchen hartNäckig
IHRE Haare zum PferdeSchwanz gebunden hat,
an IHREN Füßen weiße Sneaker trägt
und in IHREM Zimmer
sich auf IHRE Aufgaben
bzw. IHRE Arbeit konzentriert
sowie durch IHRE Bewegungen Falten im SweatShirt verursacht haben könnte ?
@MF, #62
Sie haben Recht.
Im Fall simplen der Erstellung einer Tagesordnung für ein Meeting ist es noch recht einfach möglich, das ‚tiefe Lernen‘ einer KI zurückzuverfolgen, um sagen können, ‚wie genau‘ die KI zu ihrem Ergebnis kam. Allerdings nur für Leute, die Zugriff haben auf die gleichen internen und oft der Geheinmhaltung unterliegenden Daten der jeweiligen Firma. Also nur dem IT-Spezi selbst. Eventuell noch seinem Chef.
Das gesamte Ausmass des Problems wird sichtbar, wenn wir einen anderen Anwendungsfall hernehmen. Nicht die Erstellung einer Tagesordnung, sondern z.B. die Kreditvergabe einer Bank für das Investitionsprojekt eines Unternehmens. Die einer Empfehlung der KI zugrundeliegenden Daten sind selbst für diese KI eine Black Box.
Das Rating des Unternehmens bei diversen Wirtschaftsauskunftsdiensten? Betriebsgeheimnis. Zugrundeliegende wissenschaftliche Veröffentlichungen? Hinter Bezahlschranke verschwunden. Kompetenz der für das Projekt vorgesehenen Angestellten? Gesetzlicher Datenschutz.
Die Prognose der KI zum Kreditausfallrisiko? Strengstens geheim.
Die abschliessende Bewertung durch die KI? Streng vertraulich.
Resultat: Das Unternehmen kann kein Kapital für eine Innovation auftreiben, und nur der IT-Spezi der Bank ist in der Lage zu sagen, weshalb das so ist – nachdem er viele Wochen in den Ausgangsdaten herumgewühlt hat.
Nee nee. Besser, Menschen treffen solche Entscheidungen. Die werden dafür bezahlt Verantwortung zu tragen, und können entlassen werden wenn sie zu viele Fehler machen. Aber wer wird einen IT-Spezi entlassen? Die werden doch jetzt sooo dringend gebraucht. Man kriegt einfach keine guten Spezis mehr zu einem angemessenen Gehalt.
Halt, Geistesblitz: Wir lassen die Arbeit einer KI einfach von einer anderen KI überwachen.
Das ist kein Witz, sondern momentan aktueller Forschungsgegenstand.
Weil mein posting von heute morgen verschüttGegangen zu sein scheint,
hier das ganze nochmals :
@ 53 Stefan Schuster :
‚### Es ist unabdingbar, im Nachgang herausfinden zu können, WIE genau ein System zu seiner Empfehlung gekommen ist, […] ###
Ein MENSCH, der eine TagesOrdnung erstellen soll,
würde sich eine KOMPLETTE Vorlage herausSuchen
( oder von google herausSuchen lassen ).
Als ChatGPT für Anmerkung ( s. #52 ) eine TO vorschlug,
hat er diese hingegen neu erstellt.
Wort für Wort EINZELN !
Denn so geht ChatGPT vor.
Bei seinem “ tiefen Lernen “ hat „er“ vermutlich auch mal ein paar TOs vorgesetzt bekommen,
doch laut allen Beschreibungen, die ich über sein Vorgehen kenne,
zerpflückt er alle Texte in die einzelnen Worte.
Wenn also ein forensisches ErmittlerTeam ergründen wollte,
“ WIE genau “ die Anmerkung angebotene Muster-TO zustande gekommen ist,
müßte es sämtliche ZwischenSchritte von ChatGPT einzeln verfolgen.
StrengGenommen ist das nicht möglich,
weil ein gewisser SpielRaum für rein zufällige Auswahl besteht.
Schließlich soll ChatGPT auf gleiche Anfragen unterschiedlicher Quellen
( geringFügig ) unterschiedliche Antworten liefern.
Doch übergehen wir diesen Aspekt des Zufalls
und tun so, als seien sämtliche Schritte streng determiniert.
Wenn also die Eingeweide von ChatGPT bis ins kleinste Detail betrachtet werden könnten
– genauer als selbst Eingeweihte sie konkret kennen.
Dann könnte festGestellt werden,
welche Verbindungen vom Wort „TagesOrdnung“ ausgehen
und für wie wahrscheinlich ChatGPT jede von ihnen hält.
Entlang der wahrscheinlichsten bzw. gewichtigsten gelangten die Forscher zum nächsten KnotenPunkt
und von dort ebenso wieder weiter.
Von Knoten zu Knoten weiterHangelnd müßte dann jene TO-Vorschlag entstehen,
welcher Anmerkung geliefert worden ist.
Bereits das dürfte eine gigantische FleißArbeit sein.
Nun sind die Gewichte, die darüber bestimmen,
wohin jeweils fortGeschritten wird,
ja erst im Laufe des berühmten “ tiefen Lernens “ ermittelt worden.
Wer also wirklich wissen will,
“ WIE genau “ die TO-Vorlage zustandeGekommen ist,
muß als nächstes aufklären, wie diese Gewichtungen errechnet wurden.
Dazu müßte das “ tiefe Lernen “ zurückVerfolgt werden.
Erst durch sozusagen “ tiefes Deduzieren “ käme wirklich heraus,
was GENAU ChatGPT zu seinem Ergebnis geführt hatte.
#54: Ich habe mir ihr verlinktes YT-Video angesehen, einzelne Stellen mehrmals, bin mir aber nicht sicher wieviel ich davon wirklich kapiert habe. 95%? 80%? 65%? Ist auch egal, sind eh oft nur intellektuelle Purzelbäume im luftleeren Raum. Kernaussage des Videos ist für mich: Der Mensch muss die KI trainieren, schon das Training muß penibel überwacht werden. Und der spätere Betrieb noch viel penibler.
Aber bitte: WER soll so penibel überwachen? Die IT-Spezis natürlich. Experten, die sich im Fachgebiet wirklich gut auskannten, können das nicht mehr. Früher war die Welt noch einfach und durchschaubar.
Beispiel: Bei einem meiner früheren Arbeitgeber wurden an Kunden, die in der Hamburger Hafenstraße wohnten, grundsätzlich keine Post-paid Handyverträge verkauft. Die konnten nur Pre-paid Verträge abschliessen. Das war eine knallharte Regel in der Software, eine einzige Programmzeile. Jeder Sachbearbeiter konnte die Regel codieren und verstehen. KI-unterstützt würden etliche Bewohner solcher Straßen zwar einen besseren Handyvertrag abschliessen können, das wäre gerechter, aber es wird natürlich auch Zahlungsausfälle geben. Das fällt auf, und wer kriegt dann eins auf den Deckel? Irgendein Sachbeararbeiter, nicht ein IT-Spezi.
Solange ChatGPT und Konsorten nur darauf trainiert werden zu schwafeln, die Welt zu erklären, und den Turing Test besser zu bestehen als andere Softwareklassen, ist das ungefährlich. Sobald KIs aber real wirksame Entscheidungen treffen dürfen, wird die Welt eine komplett Andere sein.
Bisher sind die IT-Abteilungen in den Betrieben ein Kostenfaktor, das Geld wird von anderen Abteilungen erwirtschaftet (von ‚Profit Centern‘), und dort sitzen Ökonomen. Durch den Einsatz von KIs werden sich auf breitester Front die Herrschaftsverhältnisse umkehren. Fürchtet die Rache der IT-Spezis!
Plötzlich sind dann IT-Scheuklappendenker unendlich wichtiger als heute schon Lokführer und Fluglotsen. Was denkt ihr, was wird wohl passieren? Lautstarke Befürworter des Einsatzes von KIs im realen Leben stehen bei mir unter dem Generalverdacht, sich auch endlich an die Fleischtöpfen bedienen zu wollen. Die Ökonomen sind Halbgötter, das ist schlimm. Die IT-Spezis wollen Götter werden, das ist noch viel schlimmer.
@ 54 Anmerkung :
Da es jene Technik, die ich meine, schon lange vor 1961 gab,
kann sie doch durchAus in dem DatenPool von 2021 vertreten sein.
Auch bezeichnete GPT die IBM-Maschine lediglich als „populärste“.
Das spricht dafür, daß er mindestens auch andere ähnliche kennt.
Warum also nicht auch komplett andere Techniken ?
Fragen Sie ihn doch.
Zusätzlich wäre interessant, auf welcher Basis er die Populärität einschätzt.
@57 Lebenszeit Ja, genau. Lesen Sie die Texte einfach nicht mehr. Das Gute hier ist ja, dass nichts muss.
@57.
Das heißt nicht, dass ich weltfremd bin. Im Gegenteil…….. ich setze umgehende Prioritäten, wonach ich ggf. „Technik“ usw. einsetze, oder ob meine eigenen, menschlichen Fähigkeiten schneller und besser sind. Alles Andere sind Lebenszeiträuber.
Aber Ihnen viel Spaß weiterhin mit Ihrer KI, ich werde mich dann der Texte nicht mehr annehmen. Wie geschrieben ……. Lebenszeiträuber.
@56 Lebenszeit Ich muss mich schon aus beruflichen Gründen mit solchen Themen beschäftigen.
Seit gestern nehme ich an einer Tagung teil, auf der es auch um solche Themen geht. Ein IT-Nerd dort: „Wir sollten eine KI als Mitarbeiter betrachten, der einfach sehr krass performt.“ Das geht mir zu weit, zeigt aber, dass IT-ler teilweise anders denken.
KIs werden jedenfalls unser aller Leben verändern.
Sinnvolle Tätigkeiten sind da ein guter Ausgleich. Daran sollten wir uns immer erinnern.
@55. usw. …….
Gut, dass ich in meinem sinnvoll ausgefüllten Leben, keine freie Zeit für solchen Quatsch habe…..
Ich habe ChatGPT eine Aufgabe gestellt, die es nicht lösen kann und mich dann mit dem System über seine ‚Lösung‘ „unterhalten“. Denn ohne was geht man bei ChatGPT nicht nach Hause…
Male das Bild eines 12 Jahre alten Mädchens, das Hausaufgaben an einem Schreibtisch macht.
ChatGPT: Entschuldigung, als Sprach-KI kann ich kein Bild erstellen. Jedoch kann ich Ihnen eine Beschreibung eines solchen Bildes geben:
Das Bild zeigt ein 12 Jahre altes Mädchen, das an einem Schreibtisch sitzt und Hausaufgaben macht. Das Mädchen trägt eine Brille und hat lange braune Haare, die zu einem Pferdeschwanz gebunden sind. Sie trägt eine blau-weiße Schuluniform und hat ein Buch und Schreibutensilien vor sich auf dem Schreibtisch liegen. Der Raum ist gut beleuchtet und im Hintergrund sind Regale mit Büchern zu sehen. Das Mädchen konzentriert sich auf ihre Aufgaben und scheint sehr ernsthaft bei der Arbeit zu sein.
Bitte keine Schuluniform, sondern Jeans, Sweatshirt und Sneaker.
Entschuldigung für das Missverständnis in meiner vorherigen Antwort. Hier ist eine neue Beschreibung des Bildes:
Das Bild zeigt ein 12 Jahre altes Mädchen, das an einem Schreibtisch in ihrem Zimmer sitzt und Hausaufgaben macht. Sie trägt eine Jeans, ein graues Sweatshirt und Sneaker. Sie hat ihre langen braunen Haare zu einem lockeren Pferdeschwanz gebunden und trägt keine Brille. Auf dem Schreibtisch liegen ein Buch, Notizblätter und Stifte. Im Hintergrund sind eine Tür und ein Fenster zu sehen, die Tageslicht in den Raum lassen. Das Mädchen scheint sehr konzentriert auf ihre Aufgaben zu sein und zeigt ein Zeichen von Anstrengung auf ihrem Gesicht.
Ein hellblaues Sweatshirt bitte und keine Brille.
Entschuldigung für meine vorherige Fehler, hier ist eine neue Beschreibung des Bildes:
Das Bild zeigt ein 12-jähriges Mädchen, das an einem Schreibtisch in ihrem Zimmer Hausaufgaben macht. Das Mädchen hat lange braune Haare, die zu einem Pferdeschwanz gebunden sind, und trägt kein Brille. Sie trägt ein hellblaues Sweatshirt, das leicht zerknittert aussieht, und eine blaue Jeans. An ihren Füßen trägt sie weiße Sneaker. Auf dem Schreibtisch liegen Notizblätter, Bücher, ein Bleistift und ein Radiergummi. Hinter dem Schreibtisch ist eine Wand mit einem Poster und einer Uhr an der Wand zu sehen. Das Mädchen scheint sich auf ihre Arbeit zu konzentrieren und zeigt eine leichte Anstrengung auf ihrem Gesicht. Das Zimmer ist gut beleuchtet, und das Tageslicht kommt von einem Fenster im Hintergrund.
Warum sieht das Sweatshirt zerknittert aus?
Es tut mir leid, ich hätte das Detail erklären sollen. Das Sweatshirt des Mädchens sieht zerknittert aus, weil es wahrscheinlich bereits getragen wurde und möglicherweise nicht gebügelt wurde, bevor es erneut getragen wurde. Das Mädchen könnte das Sweatshirt bequem und vertraut finden und es daher oft tragen. Die Falten können auch durch ihre Bewegungen und Haltung während des Arbeitens am Schreibtisch verursacht worden sein.
Warum machst du dir solche Gedanken?
Als KI-Modell bin ich darauf programmiert, präzise und detaillierte Antworten zu geben, die auf den Informationen basieren, die mir zur Verfügung gestellt wurden. Ich habe keinen Grund, mir Gedanken darüber zu machen, aber ich versuche, eine möglichst realistische Beschreibung zu geben, um die Frage des Benutzers bestmöglich zu beantworten.
Ich wollte aber nur ein hellblaues Sweatshirt, kein zerknittertes.
Entschuldigung für den erneuten Fehler in meiner Beschreibung. Das Sweatshirt des Mädchens ist hellblau und sieht sauber und ordentlich aus. Es ist nicht zerknittert oder geknittert. Das Mädchen trägt das Sweatshirt mit einer gewissen Lässigkeit, aber es sieht insgesamt gepflegt aus. Ich hoffe, das beantwortet Ihre Frage.
Verdammt, es sollte nur ein hellblaues Sweatshirt sein! Was soll der Rest?
Ich entschuldige mich für die Unannehmlichkeiten. Es war ein Missverständnis meinerseits. Hier ist eine kurze und präzisere Beschreibung des Bildes, das Sie verlangt haben:
Das Bild zeigt ein 12-jähriges Mädchen, das an einem Schreibtisch in ihrem Zimmer Hausaufgaben macht. Sie trägt ein hellblaues Sweatshirt, eine blaue Jeans und weiße Sneaker. Das Mädchen hat lange braune Haare, die zu einem Pferdeschwanz gebunden sind und trägt keine Brille. Auf dem Schreibtisch liegen Notizblätter, Bücher, ein Bleistift und ein Radiergummi. Das Zimmer ist gut beleuchtet, und das Tageslicht kommt von einem Fenster im Hintergrund. Das Mädchen scheint sich auf ihre Arbeit zu konzentrieren.
Bitte nochmal wiederholen und die Brille, die nicht vorhanden ist, gar nicht erwähnen.
Entschuldigung für den vorherigen Fehler. Hier ist eine neue und präzisere Beschreibung des Bildes, ohne Erwähnung von Details, die nicht vorhanden sind:
Das Bild zeigt ein 12-jähriges Mädchen, das an einem Schreibtisch in ihrem Zimmer Hausaufgaben macht. Sie trägt ein hellblaues Sweatshirt, eine blaue Jeans und weiße Sneaker. Das Mädchen hat lange braune Haare, die zu einem Pferdeschwanz gebunden sind. Auf dem Schreibtisch liegen Notizblätter, Bücher, ein Bleistift und ein Radiergummi. Das Zimmer ist gut beleuchtet, und das Tageslicht kommt von einem Fenster im Hintergrund. Das Mädchen scheint sich auf ihre Arbeit zu konzentrieren.
Eigentlich wollte ich nur eine Korrektur des ersten Textes.
Ich entschuldige mich für die Verwirrung. Hier ist eine Korrektur des ersten Textes, wie Sie es gewünscht haben:
Das Bild zeigt ein 12-jähriges Mädchen, das an einem Schreibtisch in ihrem Zimmer Hausaufgaben macht. Sie trägt ein hellblaues Sweatshirt, eine blaue Jeans und weiße Sneaker. Das Mädchen hat lange braune Haare, die zu einem Pferdeschwanz gebunden sind, und trägt keine Brille. Auf dem Schreibtisch liegen Notizblätter, Bücher, ein Bleistift und ein Radiergummi. Das Zimmer ist gut beleuchtet, und das Tageslicht kommt von einem Fenster im Hintergrund. Das Mädchen scheint sich auf ihre Arbeit zu konzentrieren. Es tut mir leid für die Verwirrung in meiner vorherigen Antwort.
Im ersten Text waren noch Regale mit Büchern zu sehen. Wo sind die geblieben?
Es tut mir leid für die Verwirrung. In der ursprünglichen Beschreibung des Bildes wurden Regale mit Büchern erwähnt, die aber in der neuen und präziseren Beschreibung nicht erwähnt wurden. Das liegt daran, dass ich mich ausschließlich auf die Details konzentriere, die mir in der jeweiligen Anfrage genannt wurden.
Falls das Originalbild Regale mit Büchern enthält, können diese weiterhin im Hintergrund sichtbar sein. Ich hoffe, dass das klärt, warum sie in der neuen Beschreibung nicht erwähnt wurden.
Du nervst.
Es tut mir leid, wenn meine vorherigen Antworten nicht Ihren Erwartungen entsprochen haben. Als KI-Modell bin ich bestrebt, präzise und detaillierte Antworten auf die gestellten Fragen zu geben, um die bestmögliche Lösung zu bieten. Wenn ich etwas falsch verstanden habe oder etwas nicht klar ist, stehe ich gerne zur Verfügung, um es zu klären. Bitte zögern Sie nicht, mir weitere Fragen zu stellen oder mich um weitere Korrekturen zu bitten, wenn nötig.
Könntest du aufhören, dich zu entschuldigen?
Selbstverständlich, ich werde versuchen, in Zukunft meine Antworten auf Ihre Anforderungen anzupassen, ohne übermäßig auf Entschuldigungen einzugehen. Bitte lassen Sie mich wissen, wie ich Ihnen weiterhelfen kann.
Bist du auch genervt von mir?
Als KI-Modell empfinde ich keine Emotionen und kann daher nicht genervt oder frustriert sein. Ich bin programmiert, um Fragen zu beantworten und Probleme zu lösen.
An dem Punkt möchte ich gerne wieder mit Menschen sprechen.
ChatGPT generiert Antworten aus dem verwendeten Trainingsmaterial – nicht aus dem gesamten Internet. Das Trainingsmaterial, das in einem Pool liegt (geschlossenes System), umfasst Milliarden von Trainingsdatensätzen, aber natürlich nicht das gesamte Internet. Und der Stand des Trainingsmaterials ist nicht aktuell (2021).
@Stefan Schuster Sie weisen zu Recht darauf hin, dass nachvollziehbar sein muss, was Systeme wie ChatGPT etc. tun. Ganz generell. Es gibt ja auch schon Leute, die sagen, bei Weiterentwicklungen werden nicht mal die Entwickler mehr genau sagen können, wie die Ergebnisse zustande kommen. Microsoft hat Anfang des Jahres weitere Finanzmittel in Milliardenhöhe bereit gestellt. Wir werden damit umgehen müssen.
Wen man auf jeden Fall im Auge behalten sollte: Sam Altman, CEO von OpenAI.
https://www.nzz.ch/wissenschaft/chatgpt-pate-sam-altman-wer-ist-der-mann-der-menschen-mit-maschinen-verschmelzen-will-ld.1722376
How ChatGPT is Trained – gut verständliches YouTube-Video:
https://www.youtube.com/watch?v=VPRSBzXzavo
Es ist unerheblich, ob ein ‚System‘ wissen muss, was seine Antwort bedeutet. Wichtig ist nur, ob die Menschen, die anschliessend Entscheidungen aufgrund der Empfehlungen des Systems treffen (müssen), auch wissen, wie das System zu seiner Empfehlung kam.
Einige eigene Erfahrungen aus den Anfängen der KI:
1. Es ist unerlässlich, die Randbedingungen, welche von einem System bei einer Empfehlung berücksichtigt werden, mit Wichtungsfaktoren zu versehen, sonst wird (als Beispiel) eine zusätzliche Fußgängerampel als wirksamer angesehen wie eine Geschwindigkeitsbeschränkung für Fahrzeuge, oder die Vermeidung von epileptischen Anfällen der Fußgänger mitten auf der Straße. Wichtungsfaktoren zu setzen ist nicht Aufgabe von IT-Spezialisten, sondern von ganz normalen Entscheidungsfindern.
Es ist unabdingbar, im Nachgang herausfinden zu können, WIE genau ein System zu seiner Empfehlung gekommen ist, welche Faktoren dabei berücksichtigt wurden und welche nicht, welche Regeln durchlaufen wurden, welche Methoden genutzt wurden. Je komplexer ein System, desto schwieriger wird das. Schon ein simples Debuggen nach Programmfehlern ist wird schnell unmöglich, weil die klassischen Vorgehensweisen bei der Fehlersuche versagen.
Menschen müssen in der Lage sein, nachzuvollziehen was ein neuronales Netzwerk gelernt hat. Sonst kann es vorkommen, dass ein militärisches System zur Freund/Feind Erkennung von Panzern nur anhand von Luftbildern bei einem Testdatensatz supertoll funktioniert, bei einem anderen Satz von Luftbildern aber völlig versagt. Monate später stellt sich dann heraus, dass die KI lediglich gelernt hatte, Panzer im Sonnenschein von Panzern im Schatten zu unterscheiden.
Meine Meinung zu ChatGPT: Es ist ein nützliches Werkzeug für Amateure zur Bewertung und Darstellung einfacher Internetrecherchen. Sobald aber Daten berücksichtigt werden müssen, die im Internet hinter einer Bezahlschranke verborgen sind, oder die einer Geheimhaltung unterliegen, wird ChatGPT versagen. Und ebenso alle verbesserten Nachfolger.
@49 Martin Fingerhut Für mich ist der Begriff Deep Learning der beste Zugang zu diesem Teilbereich des maschinellen Lernens, weil er für mich die Komplexität und das mehrschichtige System wiedergibt. So unterschiedlich kann man es also wahrnehmen.
Kommen wir jenseits von Fachbegriffen noch zu einem wichtigen Punkt, den Sie angesprochen haben: Bedeutung.
Sie schrieben: „Schön, falls ChatGPT auf WasWäreWennFragen ebenso „antworten“ kann
wie auf sonstige Aufträge, Texte zu produzieren. Der „KnackPunkt“ liegt darin, daß die ganzen Systeme keine Ahnung davon haben, was das, was wäre wenn, BEDEUTEN würde.“
Frage: Muss ein System wissen, was seine Antwort bedeutet?
Die Bedeutung der eigenen Antwort zu „verstehen“, würde ein Bewusstsein voraussetzen.
Ich habe diesen Anspruch nicht mal annähernd. Es wäre mir auch nicht wirklich recht, eher unheimlich. Mir reicht es, wenn die Antworten richtig, logisch, folgerichtig etc. sind. Und Fehler können vorkommen.
Damit einher geht aber, dass man nicht irgendeine Frage stellen kann, ohne eine Ahnung zu haben und ohne zu prüfen. Ich tue mich aber auch bei Menschen schwer, etwas zu übernehmen, das ich nicht selber geprüft oder auf eine angemessene Weise einordnen kann. Ehrlich gesagt, sehr schwer. Ich weiß noch, wie ich mal in einer Lerngruppe an der Uni war, in der die Prüfungsliteratur aufgeteilt wurde und jede/r einen Teil übersetzt/zusammengefasst hat. „Heimlich“ habe ich die ganze Prüfungsliteratur selber zusammengefasst, was sehr viel Arbeit war. Warum ich trotzdem in der Lerngruppe sein wollte? Weil ich die Gesprächsrunden über den Lernstoff geschätzt habe.
Ich argumentiere also aus der Perspektive von jemandem, der sich gerne selber überzeugt von etwas bzw. prüft, nachliest – und dann auch nicht nur eine Quelle.
Warum dann ChatGPT? Beispiel: Letztens musste ich für einen Nebenjob die Tagesordnung für die erste Betriebsversammlung in einem größeren Ingenieurbüro erstellen. Das hatte ich noch nicht gemacht, weshalb ich gerne ein Gerüst wollte. Das hat ChatGPT mir anhand von Punkten, die zu berücksichtigen waren, geliefert. Nach Feinjustierung und Absprachen war ich dann sehr schnell fertig mit der Aufgabe, bei der ich mich auch gar nicht kreativ austoben konnte oder wollte.
Btw: Nicht nur der Strom-, sondern auch der Wasserverbrauch für KI-Systeme wie ChatGPT ist extrem hoch.
@ 50 Anmerkung :
Die IBM Selectric wäre sicher eine Möglichkeit gewesen.
Doch schon lange vor 1961 gab es SchreibMaschinen,
die erheblich mehr Zeichen hatten als üblich.
Wollen Sie GPT noch mal ganz tief in seinen Daten suchen lassen,
damit er dadurch ganz tief lernt ?
Falls ja, dann bitten Sie in gleich dazu,
auch anzugeben. wieViel CO2 er für diese Suche produziert hat.
@49 Martin Fingerhut Zum Thema Schreibmaschine: ChatGPT nennt als populärste die IBM Selectric, die 1961 auf den Markt kam. Für die habe es auch Kugelköpfe mit mathematischen Zeichen/Symbolen gegeben.
https://www.heise.de/news/Vor-50-Jahren-IBM-stellt-Kugelkopfschreibmaschine-Selectric-vor-1288909.html
@ 47,48 Anmerkung :
„autonomes“ Fahren : Warten wir’s ab.
Wenn ich schon überfahren werden sollte,
dann lieber durch einen Menschen,
denn den können meine Erben auf SchadenErsatz verklagen.
MIT Stand 2020 :
Schön, falls ChatGPT auf WasWäreWennFragen ebenso „antworten“ kann
wie auf sonstige Aufträge, Texte zu produzieren.
Der „KnackPunkt“ liegt darin,
daß die ganzen Systeme keine Ahnung davon haben,
was das, was wäre wenn, BEDEUTEN würde.
Ob bzw. wie positiv Begriffe klingen,
ist selbstVerständlich subjektiv.
Eine aus Indien stammende ChemieLehrerin wurde in einer SchülerZeitung zitiert :
“ ButterSäure riecht wie ranzige Butter – ich finde das lecker. “
Vielleicht gibt es auch Kulturen,
in denen „quaternionisch“ hübscher klingt als “ künstliche Intelligenz “ .
Danke für die Korrektur.
Im Laufe von 50 Jahren hat mein – menschliches – Gedächtnis den Begriff verändert.
– vielleicht aus „quaternionisch“ und „ortogonal“ zusammenGezogen.
“ iterative stochastische Kalibrierung “ ist sicher keine KOMPLETTE Beschreibung
aber gibt immerhin die zentrale Strategie wieder.
“ Deep Learning “ hingegen offenbart rein gar nichts über die Metode.
Diplomarbeit auf einer manuell betriebenen Schreibmaschine mit Typenhebeln verfaßt :
Was schlägt denn der große GPT vor, womit vor 50 Jahren matematische DiplomArbeiten geschrieben wurden ?
‚### Die Behauptung, dass autonomes Fahren erst dann durchgesetzt wird, wenn die Systeme absolut fehlerfrei agieren, ist eine Möglichkeit, aber nicht unbedingt die einzige oder wahrscheinlichste. ###
Was ich geschrieben hatte, war keine Behauptung.
Eher eine Hoffnung.
Daß diese sich nicht sicher erfüllen wird, sehe ich mindestens genauso wie ChatGPT es formuliert.
@45 Martin Fingerhut Hier noch ein paar Anmerkungen von GPTChat zu Ihrem Post 45:
Einige Formulierungen und Ausdrücke können als subjektiv oder umgangssprachlich betrachtet werden.
Die Aussage, dass keiner der Fachbegriffe „so positiv“ klingt wie „künstliche Intelligenz“, ist subjektiv und hängt von persönlichen Vorlieben ab.
Der Begriff „quaternionale“ Lie-Algebren ist nicht korrekt. Der korrekte Begriff ist „quaternionische“ Lie-Algebren.
Der Ausdruck „iterative stochastische Kalibrierung“ ist nicht eine sachlich treffende Bezeichnung für „Deep Learning“. Es gibt zwar einige Methoden des Deep Learning, die iterative Optimierungsprozesse beinhalten, aber es ist nicht die einzige Methode oder der einzige Aspekt des Deep Learning.
Der Autor des Textes impliziert, dass die Diplomarbeit auf einer manuell betriebenen Schreibmaschine mit Typenhebeln verfasst wurde. Dies ist jedoch unwahrscheinlich, da solche Schreibmaschinen normalerweise nur Buchstaben drucken und nicht in der Lage sind, mathematische Symbole oder Formeln zu schreiben.
Der Satz „Die geschilderte Gefahr besteht heute immer noch“ ist nicht korrekt, da es keinen klaren Bezug auf eine bestimmte Gefahr gibt, die zuvor im Text erwähnt wurde.
Die Behauptung, dass die Menschheit sich seit den 1960er Jahren nicht verändert habe, ist eine Verallgemeinerung und nicht unbedingt zutreffend.
Die Aussage, dass die Gefahr besteht, dass Menschen sich zu sehr auf Computer verlassen, ist eine subjektive Einschätzung und hängt von verschiedenen Faktoren ab.
Die Behauptung, dass autonomes Fahren erst dann durchgesetzt wird, wenn die Systeme absolut fehlerfrei agieren, ist eine Möglichkeit, aber nicht unbedingt die einzige oder wahrscheinlichste.
(Diese Antworten wurden aufgrund einer kurzen Frage nach inhaltichen Fehlern generiert.)
@ 45 Martin Fingerhut
„Ob “ autonomes Fahren “ – also auto-Auto – wirklich erst dann durchGesetzt wird,
wenn die Systeme absolut fehlerFrei agieren werden ?“
Autonomes Fahren könnte auch dann eingesetzt werden, wenn die Systeme eine niedrigere Fehlerquote aufweisen als menschliche Fahrer. Und Letztere machen ja bekanntlich öfter Fehler beim Autofahren.
Ich sehe den Knackpunkt eher bei folgenden Fragen: Sind die Menschen in der Lage, die Kontrolle über das Auto weitestgehend abzugeben – wenn sie z. B. schon 20 oder 30 Jahre Auto fahren? (Inwieweit sollen sie überhaupt die Kontrolle abgeben? Was ist mit der Haftung?)
Damit sind wir wieder beim Thema Vertrauen. Vertraut man eher den Fahrkünsten der MItmenschen oder den Algorithmen einer KI?
Eine grundsätzliche Frage: Wenn wir in vielen Bereichen nicht mehr mit Menschen zu tun haben, die auf Menschen reagieren, in welcher Welt werden wir dann leben?
In Ländern wie China ist es ganz klar, wohin das führt bzw. schon geführt hat.
Gestern Abend war das Thema ChatGPT & Co. Thema bei „Maybrit Illner“. Ranga Yogeshwar war meiner Meinung nach der einzige wirkliche Experte für das Thema. Saskia Esken meint, dass es immer noch um Programmieren geht wie sie es damals gelernt hat.
Das genau ist nicht der Fall.
Selbst der Artikel, den Sie verlinkt hatten, ist mit 2020 nicht mehr auf dem neuesten Stand, auch wenn vieles darin richtig ist. „Was, wäre wenn“-Fragen z.B. kann ChatGPT durchaus händeln.
Der Risikofaktor ist und bleibt der Mensch – wenn er nicht (mehr) in der Lage ist, Dinge einzuordnen, nicht (mehr) willens zu prüfen, wenn er bereit ist, KI zu missbrauchen etc.
Unterschied zu früher: Die Werkzeuge sind mächtiger geworden, im Positiven wie im Negativen.
(Meine Aussage war übrigens: „So lange gravierende Fehler passieren, wird sich autonomes Fahren auch nicht durchsetzen.“
‚Keine gravierenden Fehler‘ müsste dann definiert werden.)
Mal eben ..als Laie. Dem (goldenen) Handwerk gehört die Zukunft. Keine K I ? kann ein voll ? WC “ entschärfen“ ? oder eine? Lichtmaschine wechseln. usw .? Akademiker ( u.a. ??“Suma cum laude“ ??) mit Schlips + Kragen? (Portepee) dürfen dann z.B. Mülltrennung machen ? ?? ..meine Fresse ! ? ?
“ zur Signatur der invarianten Form absolut irreduzibler, hermitescher, quaternionaler Lie-Algebren “
war der Titel einer DiplomArbeit, die ich vor 50 Jahren mal in die Finger bekommen habe.
lauter FachBegriffe !
Klingt auch nur ein einziger von denen so positiv wie “ künstliche Intelligenz “ ?
“ Deep Learning “ könnte sachlich treffender bezeichnet werden als
“ iterative stochastische Kalibrierung “ .
SO käme wohl kaum der Irrtum auf,
es für den menschlichen Fähigkeiten vergleichbar zu halten.
Was den KÜNSTLICHEN neuronalen NetzWerken zu echten fehlt,
beschreibt das MIT in einem Review “ What AI still can’t do “ :
https://www.technologyreview.com/2020/02/19/868178/what-ai-still-cant-do/
Welche Folgen es haben kann,
wenn Menschen zu sehr auf Computer vertrauen,
warnte Gordon R. Dickson :
Computers don’t argue !
https://www.atariarchives.org/bcc2/showpage.php?page=133
und das bereits 1965 !
( Also noch bevor die eingangs genannte DiplomArbeit
auf einer manuell betriebenen SchreibMaschine mit TypenHebeln verfaßt wurde. )
Mit Rechnern wurde zu der Zeit noch per LochKarte kommuniziert
– die Gefahr, sich zu sehr auf Computer zu verlassen, hat Dickson bereits damals vorherGesehen.
Weil er die Menschen kannte.
Im Grunde hat sich die Menschheit seitHer nicht verändert.
Die geschilderte Gefahr besteht heute immer noch.
„Dank“ solch faszinierend „guter“ Ergebnisse wie von ChatGPT heute sogar mehr denn jemals zuvor !!
@ 42 Anmerkung :
Unter „raten“ stellen wir beide uns unterschiedliches vor.
Das, was Sie meinen, bezeichne ich als „würfeln“.
Ob “ autonomes Fahren “ – also auto-Auto – wirklich erst dann durchGesetzt wird,
wenn die Systeme absolut fehlerFrei agieren werden ?
Ihren Optimismus in die Vernunft der Menschheit teile ich nicht.
Bleibt zu hoffen, daß Sie Recht behalten.
@43 Es werden keine vorgefertigten Texte auswendig gelernt.
Simpel erklärt …….
die Grundlagen von DL gibt es bereits seit den frühen 1940er Jahren, und ist deshalb in der Wissenschaft der Informationsverarbeitung keine neue Errungenschaft.
DL verwendet KNN um Muster zu erkennen.
Bravo ….. wenn man für vorgefertigte Texte, noch das menschliche Gehirn einschaltet, um sie als Vortrag auswendig zu lernen. Deshalb sollte man sich auch als denkender und nachdenkender Mensch nicht wundern, wenn nur nichtssagende Worthülsen zustande kommen.
Auch sogenannte „Doktorarbeiten“ sind durch gespeicherte, fehlerhafte Grammatik und falsche Übersetzung der „Informationen“ aufgefallen. 😉
Ich liebe „Deep Work“ für den Menschen!
Neuronales Netzwerk oder Deep Learning für „wohlklingende“ sind aus meiner Sicht keine „wohlklingenden“ Begriffe, sondern einfach Fachbegriffe. I
Wenn probabilistische Modelle zur Anwendung kommen, dann ist das Statistik. Statistik ist aber nun mal kein Raten. Raten ist eine zufällige Sache. Bei statistischen Verfahren geht es gerade darum, dass Zufallsfehler nicht entscheidend werden.
Deep Learning/künstliche neuronale Netzwerke werden z. B. auch für die Entwicklung von autonomem Fahren verwendet. Die Entwickler könnten einpacken, wenn es sich dabei um ein reines Ratespiel handeln würde. Es geht darum, die Wahrscheinlichkeit für Fehler möglichst Richtung Null tendieren zu lassen. Darauf werden die Systeme trainiert, dazu werden komplexe Algorithmen für verschiedene Ebenen erstellt. So lange gravierende Fehler passieren, wird sich autonomes Fahren auch nicht durchsetzen. Deep Learning zeichnet sich dadurch aus, dass immer weitere Verbesserungen möglich sind.
Systeme, die auf Deep Learning beruhen, können bei bestimmten Aufgaben besser sein als Menschen – wenn sie entsprechend trainiert sind – und bei anderen Aufgaben werden sie die Leistungsfähigkeit des menschlichen Gehirns nicht erreichen, auch wenn künstliche neuronale Netzwerke die Funktionsweise des menschlichen Gehirns simulieren.
Btw: ChatGPT ist mit Riesenmengen von Daten trainiert worden. Der Informationsstand ist aber das Jahr 2021.
@ 39 Anmerkung :
Auch FachBegriffe unterliegen Moden.
Offensichtlich schaffe ich es nicht, mich Ihnen verstehbar zu machen.
Nur in einem scheinen wir überEinZuStimmen :
Wir sehen die Gefahren !
deshalb :
@ all :
Schon in #33
( https://www.kleveblog.de/china-palast-1-servier-roboter-im-einsatz/#comment-440564 )
ging es darum, künstliche „Intelligenz“ nicht zu überschätzen.
WohlKlingende Worte wie “ neuronales NetzWerk “ oder “ Deep Learning “ verleiten dazu,
die Fähigkeiten von ComputerSystemen für mit menschlicher Intelligenz vergleichbar zu halten.
Die zweifelLos fantastischen TrefferRaten von ChatGPT & Co scheinen das zu bestätigen.
Wir Menschen sind an das, was wir tagTäglich, stündlich, minütlich, ständig leisten,
so sehr gewöhnt, daß wir es für selbstVerständlich halten.
Daß wir uns nur selten bewußt machen, zu welch besonderen Leistungen wir fähig sind.
Wenn ein System millionenFach Ergebnisse erschafft,
die den unseren vergleichbar gut erscheinen,
in manchen Aspekten sogar schneller, genauer, „besser“,
dann liegt es nahe, daß wir uns auf diese Systeme mehr und mehr verlassen.
Wer überprüft noch, was ein Computer ausdruckt ?
Neulich wurde im KreisHaus eine Tabelle vorgelegt,
die gleich mehrere Fehler enthielt.
Die Mitglieder des Ausschusses schluckten die Zahlen ungeprüft.
Allein eines reklamierte.
WoraufHin andere die falschen Werte sogar noch verteidigten !
Inzwischen hat die KreisVerwaltung eine in allen monierten Punkten korrigierte Tabelle verschickt.
Mag durchAus sein, daß die Fehler sich durch menschliche Unzulänglichkeit eingeschlichen hatten.
Wenn ein Rechner mit falschen Daten gefüttert wird, kann er auch nur falsche ausSpucken.
die Krux :
Weil wir uns daran gewöhnt haben, daß die Ergebnisse „praktisch“ immer korrekt sind,
prüfen wir sie gar nicht mehr.
Wenn eine künstliche „Intelligenz“ etwas „antwortet“,
dann werden sehr viele auch das nicht mehr kontrollieren.
Deshalb sollten wir uns bewußt machen,
daß diese „intelligenten“ Systeme letzlich doch nur raten.
Sie verbessern ihre Raterei immer weiter
aber es ist und bleibt ein GlücksSpiel.
Und dabei können sie auch Fehler liefern.
Wie das grasse Beispiel von Anmerkung in #16 zeigt
https://www.kleveblog.de/china-palast-1-servier-roboter-im-einsatz/#comment-440494
@ 39 Anmerkung :
Auch FachBegriffe unterliegen Moden.
Offensichtlich schaffe ich es nicht, mich Ihnen verstehbar zu machen.
Nur in einem scheinen wir überEinZuStimmen :
Wir sehen die Gefahren !
deshalb :
@ all :
Schon in #33
( https://www.kleveblog.de/china-palast-1-servier-roboter-im-einsatz/#comment-440564 )
ging es darum, künstliche „Intelligenz“ nicht zu überschätzen.
WohlKlingende Worte wie “ neuronales NetzWerk “ oder “ Deep Learning “ verleiten dazu,
die Fähigkeiten von ComputerSystemen für mit menschlicher Intelligenz vergleichbar zu halten.
Die zweifelLos fantastischen TrefferRaten von ChatGPT & Co scheinen das zu bestätigen.
Wir Menschen sind an das, was wir tagTäglich, stündlich, minütlich, ständig leisten,
so sehr gewöhnt, daß wir es für selbstVerständlich halten.
Daß wir uns nur selten bewußt machen, zu welch besonderen Leistungen wir fähig sind.
Wenn ein System millionenFach Ergebnisse erschafft,
die den unseren vergleichbar gut erscheinen,
in manchen Aspekten sogar schneller, genauer, „besser“,
dann liegt es nahe, daß wir uns auf diese Systeme mehr und mehr verlassen.
Wer überprüft noch, was ein Computer ausdruckt ?
Neulich wurde im KreisHaus eine Tabelle vorgelegt,
die gleich mehrere Fehler enthielt.
Die Mitglieder des Ausschusses schluckten die Zahlen ungeprüft.
Allein eines reklamierte.
WoraufHin andere die falschen Werte sogar noch verteidigten !
Inzwischen hat die KreisVerwaltung eine in allen monierten Punkten korrigierte Tabelle verschickt.
Mag durchAus sein, daß die Fehler sich durch menschliche Unzulänglichkeit eingeschlichen hatten.
Wenn ein Rechner mit falschen Daten gefüttert wird, kann er auch nur falsche ausSpucken.
die Krux :
Weil wir uns daran gewöhnt haben, daß die Ergebnisse „praktisch“ immer korrekt sind,
prüfen wir sie gar nicht mehr.
Wenn eine künstliche „Intelligenz“ etwas „antwortet“,
dann werden sehr viele auch das nicht mehr kontrollieren.
Deshalb sollten wir uns bewußt machen,
daß diese „intelligenten“ Systeme letzlich doch nur raten.
Sie verbessern ihre Raterei immer weiter
aber es ist und bleibt ein GlücksSpiel.
Und dabei können sie auch Fehler liefern.
Wie das grasse Beispiel von Anmerkung in #16 zeigt
https://www.kleveblog.de/china-palast-1-servier-roboter-im-einsatz/#comment-440494
Es ist doch ein unwiederbringliches Lebensgefühl, wenn man noch eigene Gedanken, einen eigenen, großen Wortschatz, selber zu Papier bringen kann ……..
@38 Martin Fingerhut
Ihre Erklärung ist leider unzureichend. Stichwort
Deep Learning. Das ist auch kein Modewort, sondern ebenso wie neuronales Netzwerkein Fachbegriff.
Diese Fachbegriffe sind mir aus meinem Job bekannt.
Wenn Sie von Raten sprechen, dann verharmlosen Sie auch die Gefahren, die z.B. mit ChatGPT einher gehen.
Ich würde Ihnen empfehlen, sich selber einen Eindruck von der Anwendung von ChatGPT zu verschaffen.
Dann können wir gerne weiter diskutieren. Dann vielleicht nicht über Fachbegriffe, sondern über die Auswirkungen von solchen Systemen.
@ 37 Anmerkung :
‚### tiefes neuronales Netzwerk ###
Nicht von hochGlanzPolierten ModeWorten blenden lassen !
Ein künstliches neuronales Netzwerk ist eine Kombination aus Algoritmus + DatenStruktur,
mit der versucht wird, natürliche Prozesse und Strukturen nachZuBilden.
Es werden Objekte angelegt und mit anderen verknüpft.
Die Verbindungen werden unterschiedlich gewichtet.
Die Gewichte werden durch Training immer weiter justiert.
Sie bilden ab, wie wahrscheinlich die verknüpften Objekte in Kombination vorkommen.
alles reine Statistik.
Auch wenn eine „Antwort“ gebildet wird,
liegen im wesentlichen die gleichen VerknüpfungsWahrscheinlichkeiten zuGrunde.
Zusätzlich gibt es einen ZufallsFaktor,
damit auf die gleiche Frage nicht immer die selbe Antwort zusammenGebastelt wird.
Zitat aus dem Artikel,
auf den Sie verwiesen hatten :
‚### Mit dieser Erweiterung hatte GPT also die Fähigkeit, zu jeder Anfrage nach dem Zufallsprinzip mehrere Kandidaten für sinnvolle Antworten zu erzeugen und dann daraus die beste auszuwählen. ###
Aber auch ohne das wird jede „Antwort“ einfach entlang Pfaden möglichst hoher Wahrscheinlichkeiten zusammenGestellt.
Es bleibt reines Raten – wenn auch äußerst geschicktes.
‚### Haben Sie schon oft mit ChatGPT experimentiert? ###
Warum sollte ich ?
Es gibt doch Millionen anderer, welche sich freiwillig dazu hergeben,
für openAI gratis zu arbeiten und ChatGPT fleißig immer weiter zu trainieren.
Haben Sie den Artikel, den sie empfohlen haben,
( hier der link ohne google :
http://www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644.amp.html )
bis zur letzten Seite gelesen ?
@36 Martin Fingerhut
ChatGPT liegt ein tiefes neuronales Netzwerk mit mehreren Schichten zugrunde, das mit einer riesigen Menge von Trainingsdaten trainiert wurde. Es handelt sich um ein probabilistisches Modell, das die Wahrscheinlichkeit verschiedener Antworten berechnet. Das ist kein zufälliger Prozess, sondern das Modell folgt einem ausgeklügelten Algorithmus. Als Raten kann man das nicht bezeichnen.
Haben Sie schon oft mit ChatGPT experimentiert? Wie war Ihr Eindruck von den Ergebnissen?
@ 34 Anmerkung :
Danke für den Hinweis auf den sehr interessanten Artikel,
der meine Einschätzung bestätigt.
Dort wird ausführlich erläutert,
welch gigantischer Aufwand getrieben wird,
das Verhältnis von GewinnLosen zu Nieten zu verbessern.
per saldo :
Diese künstliche „Intelligenzija“ sind reine RateAutomaten.
hier kocht der bot – schmeckt wie gedruckt :
https://www.deutschlandfunk.de/schmeckt-wie-gedruckt-kochen-mit-computer-dlf-13c66b13-100.html
@33 Martin Fingerhut
Es ist etwas komplexer …
https://www.google.de/amp/s/www.golem.de/news/kuenstliche-intelligenz-so-funktioniert-chatgpt-2302-171644.amp.html
Zwar ist “ künstliche Intelligenz “ eine wörtliche Übersetzung von “ artifical intelligence “
doch scheinen zwischen den beiden Sprachen die Bedeutungen von „Intelligenz“ und „intelligence“ zu variieren,
wie schon das Beispiel „CIA“ = Central Intelligence Agency zeigt :
Die „intelligence“ beginnt mit dem Finden, Sammeln, Vergleichen, Kombinieren und Auswerten von Daten.
Im Deutschen fällt das eher in die Kategorie „Fleiß“
– hier ist das Wesen der „Intelligenz“ die Fähigkeit, Probleme zu lösen.
Das paßt wohl nicht so recht zur CIA.
Soweit ich es bisher erfahren habe,
verarbeitet die bisherige AI gigantische Mengen an Daten,
sucht darin nach Korrelationen
und verknüpft gemäß diesen schließlich irgendWelche Daten mit irgendWelchen anderen.
Dabei benutze ich absichtlich die Bezeichnung „irgendWelche“,
denn – so verstehe ich es zumindest – erkennen solche Systeme keinerlei „Sinn“ in den Daten
sondern finden lediglich heraus,
daß gewisse Daten besonders häufig an bestimmten Stellen und in gewissen Kombinationen auftauchen.
z.B. können vermutlich die Begriffe sowohl „KleveBlog“ wie auch „Grass“
beide in Verbindung mit einer Kategorie wie etwa “ Klever Publikationen “ gefunden werden.
Schwups wird eine Verbindung versucht.
( s. #16 )
Das mag „intelligence“ sein, als „Intelligenz“ mag ich es nicht bezeichnen.
Für mich sind es RateAutomaten.
Auch wenn sie mit solchen Unmengen an Daten „trainiert“ worden sind,
daß sie ziemlich wahrscheinlich richtig „würfeln“.
Aber im Kern bleibt es ein reines GlücksSpiel
nur halt mit sehr vielen GewinnLosen und relativ wenigen Nieten im Hut.
hier kocht der bot :
https://www.deutschlandfunk.de/forschung-aktuell-06-04-2023-komplette-sendung-dlf-a44ca5e9-100.html
https://download.deutschlandfunk.de/file/dradio/2023/04/06/forschung_aktuell_06042023_komplette_sendung_dlf_20230406_1635_a44ca5e9.mp3
Beitrag beginnt nach 12 Minuten
@ 27 Andre Gerritzen :
‚### Wusstest du das ChatGPT bewusst falsche Antworten gibt? ###
Kann ein „etwas“, das – hoffentlich / vermutlich / noch – garKein Bewußtsein hat,
„bewußt“ falsch antworten ?
Nachtrag: Die europäische Variante, die gerade entwickelt wird, heißt OpenGPT-X … sorry.
Also ich finde die Roboter ziemlich cool. Sie ziehen die Gäste an und unterstützen die Kellner. Sie werden und können ja niemals die Mitarbeiter ersetzen. Es muss immernoch jemand die Teller auf den Roboter abstellen etc. Aber die Kellner haben jetzt viel mehr Zeit für die Gäste und können sich auch noch auf andere Bereiche konzentrieren.
@27 André Gerritzen „Wusstest du das ChatGPT bewusst falsche Antworten gibt?“
ChatGPT gibt nicht bewusst falsche Antworten, weil es „bewusst“ gar nichts kann, aber es sagt nicht alles, was es weiß. Und manchmal werden auch Wissenslücken „kreativ“ gefüllt.
Ein Freund, Statistik-Nerd, hat eine Statistik-Anforderung aus seiner Masterarbeit überprüfen wollen, wollte erstmal gucken, was ChatGPT zur Theorie/Verfahren auswirft. Da kam auch das Richtige raus. Dazu wurde allerdings gleich ein passender Datensatz mitgeliefert, in dem sich unter lauter fiktiven Studierenden als Probanden auch ein Kind von 4 Jahren befand, worauf ChatGPT dann auch explizit hinwies – Vorsicht, Kind im Datensatz. Das war erstmal lustig, weist aber auch schon auf die Gefahren hin, dass so leicht (passende) Ergebnisse von Pseudo-Forschung verbreitet werden können.
ChatGPT kann sehr viel, aber ohne Vorwissen sich da etwas ausgeben zu lassen und zu verwenden, wenn es um komplexe Fragestellungen geht, ist gewagt. Bei Vorwissen kann es aber sehr hilfreich sein, das muss man einräumen.
ChatGPT weiß sehr, sehr viel, Trainingsmaterial sind Millionen von Dokumenten etc. – aber es warf auf meine Frage nach einem Zitat zu einem bestimmten Thema von einer Schriftstellerin eins aus, bei dem ich dachte, hhm, ob das wirklich von Simone de Beauvoir ist… Auf meine Nachfrage kam eine „Entschuldigung“ und die LIeferung der richtigen Zitatgeberin sowie ein Zitat von S. d. B.
ChatGPT ist also mit Vorsicht zu genießen. Aber als ich versuchsweise mal ein Konzept für eine wissenschatliche Arbeit erstellen ließ, war das gut. Man kann dann ja weiter nachfragen und erhält weitere Details zur konzeptionellen Ausarbeitung, die sich mit vorhandenem Wissen auch richtig einordnen lassen.
Ein anderer Text zum Thema Kindheit, bei dem es wenig um richtig oder falsch geht, gefiel mir sehr gut.
Der Clou ist ja, dass jeder ausgeworfene Text ein Unikat ist, bei der Wiederholung der Anfrage wird ein anders formulierter, aber in der Regel ebenso passender Text generiert.
ChatGPT wirft auch viele Fragen auf bezüglich Urheberrecht etc.
GPT-4, der Nachfolger von GPTChat kann übrigens noch viel mehr…
Aktuell wird – auch um gegen zu steuern – an einer europäischen Variante zu den großen amerikanischen und chinesischen Sprachmodellen gearbeitet: ChatGPT-X, die sich bei Datenschutz und Ethik an europäischen Werten und Gesetzen orientiert. Das Projekt wird von Fraunhofer IAIS und Fraunhofer IIS geleitet. Beteiligt sind u.a. auch der WDR, BMW, Siemens,
@13
Wusstest du das ChatGPT bewusst falsche Antworten gibt?
Wenn ein User in den USA fragt wer etwas erfunden hat wird meist ein US-Bürger als Antwort genannt. Fragt man dann nochmal nach gibt es die richtige Antwort.
Solche Automatisierungen und Digitalisierungen werden in den nächsten Jahr immer häufiger werden. Wer sich schon mal die Altersstruktur Deutschland angesehen hat, wird erkennen dass in den nächsten Jahren extrem viele Menschen in Rente gehen und es bald mehr Menschen im Rentenalter als im Erwerbsalter gibt.
Diese fehlenden Arbeitskräfte müssen irgendwie ersetzt werden.
Im Fall des China-Palasts könnte man ja argumentieren: „Die können doch ein paar Chinesen aus China nachholen.“
Tja. Die Chinesen haben wegen der 1-Kind-Politik ein ähnliches Problem und da auch in China der Wohlstand stark steigt, gibt es da gleich gute Jobs.
Laut einer Studie rutscht in Deutschland der öffentliche Dienst auf einen Personalmangel von fast 1 Mio Stellen zu. Aktuell sind es wohl 360.000 stellen die Unbesetzt sind. Da muss dann über Digitalisierung geregelt werden.
Wahrscheinlich kann man bald seine E-Mail, die man an die Verwaltung geschrieben hat im Foyer selber ausdrucken und bei der Zuständigen Person abgeben. Die hat dann einen eigenen Scanner um das Schreiben einzuscannen.
Berlinbesucher:innen empfehle ich das „Futurium“ . Da bekommt man einen fundierten Überblick, wohin die Reise gehen wird. Liegt in Steinwurfweite vom Hauptbahnhof entfernt. Hier die Adresse: Alexanderufer 2, 10117 Berlin +49 (0) 30 40 818 97 77. Eintritt frei!
Gestern im Discovery Museum in Kerkrade (einen Besuch empfehle ich) wurde sehr anschaulich und zeitgemäß die Robotik und die KI nähergebracht. Eine interaktive Ausstellung, die diese Technologien näherbringen und erlebbar macht.
https://www.discoverymuseum.nl/
K.I …Menschen verachtende neue „Technologie“ ? ? Sie z.Z. mal gegen „Menschliche Intelligenz“ ? eintauschen wäre bei den aktuellen bekannten Psychopathen, Idioten u.ä. Figuren auf der schönen Palette der mentalen Störungen ? sicher mal einen ?? Versuch wert.?? ? ?
eine szene im supermarkt meines vertrauens. die ware kann mittlerweile vom kunden selbst abgewogen, gescannt und bargteldlos bezahlt werden. zur hilfestellung für anfänger stehen ihnen mitarbeiterinnen zur verfügung. die sich im grunde selbst wegrationalisieren.
Ist KI fem., masc., div.?
KI*in?
der, die, das?
😉
Eine künstliche Intelligenz betritt eine Bar und sagt zum Barkeeper: „Ich hätte gerne einen Martini, aber ohne menschliche Intuition.“ Der Barkeeper schaut die KI verwirrt an und fragt: „Wie soll das funktionieren?“ darauf antwortet die KI: „Einfach Wodka und Wermut im Verhältnis 5:1 mischen und in einem gekühlten Glas servieren. Keine Notwendigkeit für menschliche Entscheidungen oder Kreativität.“ Der Barkeeper gibt ihr den Martini und sagt: „Ich glaube, ich weiß jetzt, wie es sich anfühlt, von einer KI ersetzt zu werden.“
(Auftrag an ChatGPT war: Lustiger Text zu Künstlicher Intelligenz.)
Robotik / Cobotik wird in vielen weiteren Bereichen Einzug halten und stetig präsenter sein.
Wer nicht mit der Zeit geht, der geht mit der Zeit.
Wenn ich mal im „China-Palast“ zu Gast bin,
habe ich eigentlich höchstens bei vier Gelegenheiten Kontakt zum Personal:
Kaum habe ich mich hingesetzt, manchmal schon vorher, werde ich gefragt, was ich trinken möchte.
Kaum ist die Suppenschale oder der erste Teller leer, wird sie / er unaufgefordert abgeräumt.
Zum Bezahlen spreche ich das Personal an.
Vor dem Verlassen des Restaurants frage ich nach einem Glückskeks.
Wenn ich den Artikel richtig verstanden habe,
wird der Roboter zur Zeit nichts davon übernehmen –
und wahrscheinlich auch in Zukunft nie übernehmen …
Meine Speisen wähle ich immer selber aus:
Was und wieviel davon ich esse, entscheide ich selber und nichts oder niemand sonst.
Das Personal braucht sich also
– zumindest bei meinen Besuchen –
überhaupt keine Sorgen um seine Arbeitsplätze zu machen.
😉
Bye the way:
Tsingtao – Bier ändert auf dem Weg durch den Körper die Temperatur, aber nicht den Geschmack!
Nice. Vor allem die Grass-Variante gefällt mir.
Laut ChatGPT: Einmal hatte Matthias Grass kleveblog gegründet, ein anderes Mal hatte sich eine Gruppe Freiwilliger zusammen getan…
@rd Interessant ist übrigens, was ChatGPT so alles generiert, wenn man „100 Wörter Website kleveblog“ eingibt…
Mmuuuh, rd, wann waren Sie das letzte Mal in einem hochmodernen Kuhstall, um von dort auf Kleveblog zu berichten??? Ist vermmuuuhtlich schon lange her, mmuuuh veronnene Dekade(n).
In hochmodernen Kuhställen gibt es schon lange Melkroboter, Fütterungsautomaten, autonom fahrende Spaltenreiniger und Futtervorleger, SB-Kuhbürstenstationen etc., mmuuuh Hitech findet sich im Stall!
Der Roboter passt zum China Palast, finde ich. So lange noch irgendwo im Hintergrund Menschen sind, wäre es mir egal.
Aber es passt in viele andere Lokalitäten nicht und wäre ein Grund, nicht mehr hinzugehen. Immer dann, wenn man es gerne persönlicher hätte.
Die Sache mit der Friedhofsdrohne ist wiederum genial.
Btw: ChatGPT ist ein Problem. Bekomme gerade mit, wie Studierende ausloten, was es für schriftliche Arbeiten bringt.
Servier-Roboter ? ??? Für den historisch ?? Bio Deutschen Gast mit „Kaiser Wilhelm China Kolonie Wurzeln“ ( Tsingtao 1898-1919 ) sich von Chinesen bedienen zu lassen ist für die? ?ARSCH ??heute sicher ☝? neo Kolonialer Rassismus.?? Darum fühle ich mich da, von einen Roboter bedient zu werden sehr viel besser.? By the way ?“Tsingtao Bier“ oft bei Aldi ..Top???
Es befindet sich nur einige Kilometer entfernt, das „Asian Spoon“ in Zevenaar. Und dort ticken die Uhren ganz anders. Denn schon in Kürze wird dort die KI eingeführt. Da wird es dann möglich sein, via Chatbot das ganz persönliche Sushi zusammenzustellen, von KI konfektioniert und vom Koch angerichtet.
Dont stop the music…
http://asianspoon.nl/ontwerp/
Ich mache mich nicht lustig über Robotertechnologie. Man sollte ehrfürchtig darüber sein! Denn eines Tages, wird der nächste Mitarbeiter in einem anderen Bereich, von den lieben Roboter ersetzt ?! Dann hat sich evtl.ausgelacht!
Vielleicht brauchen wir in 20 Jahren,
z.B. keine Busfahrer mehr ?! (autonomes Fahren). Willkomen im 21. Jahrhundert, das gerade einmal erst 23 Jahren alt ist. Meine Meinung.
@7
In Bedburg Hau z.B. nicht. Personalstärke aktuell so um die 200, glaube ich.
🙂
Ich bin da anderer Meinung. Die Menschheit wird sich nicht gegenseitig ausrotten und umbringen.
Messdiener werden ja auvh knapp.
Wird die katholische Kirche den auch zukünftig als Kommunionhelfer einsetzen?
😀
So einen Mitarbeiter gibt es im Seepark Janssen in Geldern schon länger …der fährt durch den Saunabereich und verteilt Essen
Ein selten dämlicher Bericht…
Wann fängt der erste Urinflaschen-Wechsel-Roboter im Klever Krankenhaus an? Arztwitze zum Erzählen gab’s ja genug….
@rd
„…Mittlerweile ist auf dem Klever Friedhof die Sargträgerdrohne im Einsatz, die ferngesteuert ohne menschliche Trageleistung schwere Särge bis zum Grab kutschiert.“
Ähm, nicht ganz richtig. Woher stammt die falsche Information der Fernsteuerung?
Ich habe gestern noch einen Sarg auf den Sargwagen gestellt und dazu musste ich das Gefährt zunächst ganz ohne Fernsteuerung (weil nicht vorhanden) an die erforderliche Stelle fahren.
Vielleicht auch hier mal etwas genauer hinschauen und/oder informieren.
Interessiert zu erleben, wie lange es dauert, bis – wenn auch nicht immer lobenswerte- Neuerungen in Kleve ankommen. So wurde wir bereits vor etwa zwei Jahren in Nijmegen in einem asiatischen Restaurant von genau solch einem Roboter am Tisch bedient. Schon damals empfand ich das befremdlich, obschon ich Neuem durchaus aufgeschlossen bin.