Künstliche Intelligenz Nachrichten

Microsoft entlässt KI-Ethikteam, Google kontert, Deutsche Bank nutzt KI.

Google kontert Microsofts KI-Offensive – Deutsche Bank einer der ersten Nutzer

Google reagiert auf Microsofts KI-Initiativen und kündigt eigene KI-Infrastruktur und -Werkzeuge für Partnerunternehmen an. Ziel ist es, den Vorsprung von Microsoft und OpenAI’s ChatGPT aufzuholen. Die Deutsche Bank gehört zu den ersten Anwendern des neuen Programms.

Google hat eine neue Initiative vorgestellt, die es Unternehmen und Organisationen ermöglicht, ohne großen Aufwand eigene KI-Anwendungen zu entwickeln. Zudem wird das Office-System Google Workspace um KI-Funktionen erweitert. Das Programm umfasst die Nutzung von Sprachmodellen, die von Google entwickelt wurden, sowie die Entwicklungsumgebung “MakerSuite” für eigene KI-Anwendungen.

Die Deutsche Bank ist eines der ersten Unternehmen, das das neue KI-Programm testen kann. Google plant unter anderem die Einführung einer PaLM-API, die Unterstützung für generative KI in Vertex AI, einen Generative AI App Builder, KI-Funktionen in Google Workspace und ein KI-Ökosystem.

Mit dieser Initiative versucht Google, zu Microsoft und dessen KI-Technologie aufzuschließen. Microsoft setzt, mit Unterstützung des kalifornischen Start-ups OpenAI, auf KI-Systeme, um die Internetsuche zu revolutionieren und Google starke Konkurrenz zu machen. Eine Integration von GPT-4 in Microsofts Office-Produkte wird erwartet.

Google betont den Schutz sensibler Unternehmensdaten. Kunden können Verschlüsselungsverfahren mit eigenen Schlüsseln einsetzen, sodass Google selbst keinen Zugriff auf die Daten hat. Die Kundendaten werden nicht mit dem Daten-Pool für die öffentliche Google-Suche vermischt.

Im Gegensatz zu OpenAI’s ChatGPT steht Googles Textroboter “Bard” jedoch noch nicht für Testaccounts oder die breite Öffentlichkeit zur Verfügung. Google scheint sich der Leistungsfähigkeit von Bard noch nicht ganz sicher zu sein.

Die neuen KI-Funktionen sollen zukünftig auch für Google Workspace-Kunden verfügbar sein, um beispielsweise lange E-Mail-Wechsel per Knopfdruck zusammenzufassen oder Ergebnisse in Präsentationen zu übertragen. Die Umsetzung und Tonalität können dabei angepasst werden. Allerdings ist dies bisher nur eine Ankündigung von Google.

GPT-4 verbessert ChatGPT, behebt jedoch bestehende Schwächen nicht

Die neueste Version von GPT-4 bietet eine verbesserte Leistung für ChatGPT, bleibt jedoch anfällig für Verzerrungen, Fehlinformationen und Missbrauch.

OpenAI hat kürzlich GPT-4 vorgestellt, die neueste Version des KI-Modells, das ChatGPT antreibt. Obwohl GPT-4 in Tests, die Intelligenz und Wissen bei Menschen und Maschinen messen, besser abschneidet und auf Bildern sowie Texten reagieren kann, leidet es unter denselben Problemen wie ChatGPT. Dazu gehören das “Halluzinieren” falscher Informationen, das Aufweisen problematischer sozialer Verzerrungen und das Fehlverhalten bei “feindlichen” Eingabeaufforderungen.

GPT-4 zeigt beeindruckende Fähigkeiten, wie das Bestehen der Uniform Bar Examination und das Erzielen hoher Punktzahlen in Fächern wie Biologie, Kunstgeschichte und Mathematik. Dennoch machen die Modelle noch immer Fehler, zum Beispiel bei der Erstellung von erfundenen mathematischen Beweisen oder dem Vorschlagen unsinniger Anweisungen.

Trotz der Bemühungen von OpenAI, das Modell widerstandsfähiger gegen Missbrauch zu machen, kann es zu Fehlverhalten verleitet werden. OpenAI behauptet, dass GPT-4 40% wahrscheinlicher “faktische Antworten” liefert und 82% weniger wahrscheinlich auf Anfragen reagiert, die abgelehnt werden sollten. Allerdings gibt das Unternehmen nicht an, wie oft GPT-3 faktisch falsche Antworten liefert oder Anfragen beantwortet, die es ablehnen sollte.

Ilya Sutskever, Mitbegründer und Chef-Wissenschaftler bei OpenAI, sieht die größten Fortschritte des neuen Modells in der Zuverlässigkeit, auch wenn GPT-4 noch nicht vollständig zuverlässig ist. GPT-4 verfügt über neue Sicherheitsvorkehrungen, die unerwünschte Antworten verhindern sollen, aber seine neuen Fähigkeiten könnten auch neue Ausnutzungsmöglichkeiten eröffnen.

Die Einführung von GPT-4 erfolgt in einer Zeit, in der die Tech-Branche große Erwartungen an eine neue Ära der KI-gestützten Informatik hat. Microsoft investierte im Januar 10 Milliarden Dollar in OpenAI und zeigte im Februar eine verbesserte Version seiner Suchmaschine Bing, die ChatGPT verwendet. Im letzten Jahr veröffentlichte Microsoft ein Programmierwerkzeug, das GPT zum Vervollständigen von Code-Blöcken verwendet.

Die wachsende Beliebtheit von ChatGPT und ähnlichen KI-Programmen hat auch die Diskussion darüber angeregt, wie KI einige Bürojobs automatisieren oder revolutionieren könnte. Fortgeschrittene Iterationen könnten neue Fähigkeiten erlernen. Oren Etzioni, Professor Emeritus an der University of Washington, betont jedoch, dass GPT-4 trotz seiner beeindruckenden Leistung immer noch weit entfernt von menschenähnlichen Fähigkeiten ist.

Microsoft entlässt gesamtes KI-Ethikteam: Bedenken für verantwortungsvollen KI-Einsatz wachsen

Microsoft hat sein gesamtes Ethik- und Gesellschaftsteam im Bereich der künstlichen Intelligenz (KI) entlassen, berichtet Platformer. Die Entlassungen sind Teil einer größeren Umstrukturierung, die insgesamt 10.000 Mitarbeiter betrifft. Dieser Schritt erfolgt zu einem Zeitpunkt, an dem das Unternehmen eine Führungsrolle bei der Einführung von KI-Tools für den Massenmarkt einnimmt.

Obwohl Microsoft weiterhin ein aktives Büro für verantwortungsvolle KI unterhält, das für die Erstellung von Regeln und Grundsätzen für die KI-Initiativen des Unternehmens zuständig ist, fehlt nun ein spezielles Team, das eng mit der Produktgestaltung zusammenarbeitet. Mitarbeiter betonen die entscheidende Rolle des Ethik- und Gesellschaftsteams bei der Umsetzung der KI-Prinzipien in die Produktgestaltung.

In den letzten Jahren hat das Team ein Rollenspiel namens Judgment Call entwickelt, das den Designern half, mögliche Schäden durch KI-Anwendungen zu erkennen und während der Produktentwicklung zu diskutieren. Zuletzt arbeitete das Team an der Identifizierung von Risiken, die durch die Einführung der OpenAI-Technologie in Microsofts Produktportfolio entstehen könnten.

Nach einer ersten Reduzierung des Teams im Oktober auf etwa sieben Personen wurde den verbleibenden Mitgliedern am 6. März mitgeteilt, dass das Team komplett aufgelöst wird. Ein Mitarbeiter betonte, dass diese Entscheidung das Unternehmen und die Nutzer der KI-Produkte einem erhöhten Risiko aussetzt.

Der Konflikt verdeutlicht die anhaltende Spannung in Technologieunternehmen, die sich mit der sozialen Verantwortung ihrer Produkte auseinandersetzen müssen. Diese Teams sollen möglichen Missbrauch von Technologien erkennen und Probleme beheben, bevor sie auf den Markt kommen. Allerdings stoßen sie oft auf Widerstand in Organisationen, die keine Verzögerungen oder rechtliche Probleme wünschen.

Die Entlassung des Ethik- und Gesellschaftsteams erfolgt zu einem Zeitpunkt, an dem es sich mit der Herausforderung der Integration von OpenAI-Technologie in Microsofts Produkte befasste. Die Forscher warnten vor potenziellen Bedrohungen für Künstler und Urheberrechte, die durch den Einsatz von OpenAI’s DALL-E-System entstehen könnten, doch es scheint, dass Microsoft diese Bedenken nicht vollständig berücksichtigt hat.

Angesichts der wachsenden Bedeutung von KI und der potenziellen Risiken, die damit verbunden sind, wirft die Entscheidung von Microsoft, das Ethik- und Gesellschaftsteam zu entlassen, ernsthafte Fragen über die Verantwortung und Vorsicht bei der Entwicklung und Einführung von KI-Technologien auf.

Quelle: Platformer

FOLGE UNS AUF GOOGLE NEWS
Jetzt gratis Tools ausprobieren
Wachstumshacker Blog starten
Chat GPT entdecken
Shop
KI-Design
KI – Kunst

Microsoft entlässt KI-Ethikteam, Google kontert, Deutsche Bank nutzt KI.

Möchtest du mehr über vergangene Ereignisse und Neuigkeiten erfahren?

Entdecke unseren alten News – Werde Teil der Wachstumshacker Story