Willkommen zu den heutigen KI-News!
In der heutigen Ausgabe berichten wir unter anderem über HereAfter AI, ein Unternehmen, das es Menschen ermöglicht, ihre Erinnerungen hochzuladen. Die Erinnerungen können dann in einen “Lebensgeschichten-Avatar” verwandelt werden, mit dem Freunde und Familie kommunizieren können.
KI und Robotik können laut Experten die Tourismusbranche und Hotellerie voranbringen. In einer öffentlichen Anhörung des Bundestages zum Thema „Künstliche Intelligenz und Robotik – Chancen für den Tourismus“ bescheinigten fünf Sachverständige KI in der Reisebranche und Robotern gute Perspektiven, beispielsweise für die Gastronomie. Professor Wolfram Höpken von der Hochschule Ravensburg-Weingarten sieht KI als Möglichkeit, Touristenströme besser zu lenken und so sensiblen Umweltbereichen zu schützen. Lieselotte Wegner, Park Manager bei Landal Green Parks Leiwen & Kell am See, berichtet vom Einsatz eines Roboters, der die Mitarbeiterinnen und Mitarbeiter im Service entlastet. Alexander Mirschel von Realizing Progress sieht in der KI Potenzial für das Destinationsmanagement, betont aber auch die Wichtigkeit von vertrauensbildenden Maßnahmen bei den Menschen. Alexandra Wolframm, Leiterin Public Affairs bei Booking.com, sagt, dass das Unternehmen KI bereits sehr stark nutzt, um Angebote zu sichten. Eine Gefahr für klassische Reisebüros sieht sie aber nicht, da der Tourismus immer noch auf persönlicher Beratung basiert. Nicolas Götz, CEO des Software-Entwicklers Adigi, betont, wie hilfreich KI in der Corona-Pandemie gewesen wäre, um Anfragen automatisiert beantworten zu können.
OpenAI geht zur geschlossenen KI-Forschung über
OpenAI hat sein neues Sprachmodell GPT-4 vorgestellt, das nicht mehr offen sein wird. Experten kritisieren den gravierenden Mangel an Informationen über die Daten, die zum Training des Systems verwendet wurden. OpenAI wird in Zukunft die KI-Forschung geschlossener betreiben, um Wettbewerbsvorteile zu sichern. Ilya Sutskever, Wissenschaftschef bei OpenAI, verteidigt diese Vorgehensweise und gibt an, dass Offenheit in der KI-Forschung in Zukunft eine schlechte Idee sein wird. Dies ist eine Abkehr von den Gründungsideen des Unternehmens als Non-Profit-Organisation im Jahr 2015. Die KI-Community kritisiert diesen neuen Ansatz und befürchtet, dass die Unwissenheit darüber, wie das System trainiert wurde, die Sicherheit gefährdet. Außerdem erschwert es Korrekturen und fundierte Entscheidungen über den Einsatz des Modells. Ein weiterer Grund für die Geheimhaltung der Trainingsdatensätze könnte in der rechtlichen Haftung liegen, da KI-Sprachmodelle auf riesigen Textdatensätzen trainiert werden.
OpenAI begründet die Entscheidung zur geschlossenen KI-Forschung mit dem harten Wettbewerbsumfeld und den Sicherheitsimplikationen großer Modelle wie GPT-4. Das Unternehmen gewährt bestimmten Forschungseinrichtungen Zugang zu seinen Systemen, um die KI-Technologie zu verbessern. Die Abkehr von der Offenheit in der KI-Forschung hat jedoch viele in der Community der KI-Forschenden verärgert und die Bedenken hinsichtlich der Sicherheit und Transparenz von KI-Systemen verstärkt.
Einige Experten sehen auch Gefahren in der rechtlichen Haftung bei der Verwendung von urheberrechtlich geschütztem Material in Trainingsdatensätzen von KI-Sprachmodellen. Es bleibt abzuwarten, wie sich die Entscheidung von OpenAI auf die zukünftige KI-Forschung und die Entwicklung von KI-Systemen auswirken wird.
HereAfter AI: Ein Lebensgeschichten-Avatar für die Ewigkeit
Mit HereAfter AI können Erinnerungen hochgeladen und in einen “Lebensgeschichten-Avatar” verwandelt werden, der posthum mit Freunden und Familie kommunizieren kann. Das in den USA ansässige Unternehmen wurde von James Vlahos gegründet, der durch die Programmierung eines Chatbot-Kopie seines verstorbenen Vaters inspiriert wurde. Die künstliche Version seines Vaters gab ihm Trost und eine Möglichkeit, sich an ihn zu erinnern. Im Gegensatz zu statischen Profilen in sozialen Medien oder Fotoalben, ist der Avatar interaktiv und archiviert einen Teil von uns oder denjenigen, die wir lieben. Die App wird von den Nutzern positiv aufgenommen und kann Familien näher zusammenbringen. HereAfter AI möchte jedoch sicherstellen, dass die KI keine Dinge ausdenkt, die nicht der ursprünglichen Person entsprechen, um später für die Angehörigen keine irreführende Erfahrung zu schaffen. Obwohl diese KI-Avatare sicherlich für den Trauerprozess von Nutzen sein können, besteht auch die Gefahr, dass sie uns an der Vergangenheit festhalten und uns nicht weiterbringen und wachsen lassen.