Stanford zieht “halluzinierendes” Alpaca KI-Modell aus Sicherheits- und Kostengründen zurück
Forscher der Stanford University haben das Web-Demo von Alpaca, einem kleinen KI-Sprachmodell, das auf Meta’s LLaMA-System basiert, wegen Sicherheits- und Kostengründen offline genommen.
Große Sprachmodelle mit Milliarden von Parametern sind oft nur großen Unternehmen zugänglich, die die nötigen Ressourcen zum Trainieren und Betreiben dieser Modelle haben. Meta wollte den LLaMA-Code mit ausgewählten Forschern teilen, um die Erforschung toxischer und falscher Texte in Sprachmodellen voranzutreiben, ohne dass die Forscher massive Hardware-Systeme benötigen.
Eine Gruppe von Informatikern der Stanford University verfeinerte LLaMA und entwickelte Alpaca, ein Open-Source-Modell mit sieben Milliarden Parametern, das angeblich weniger als 600 Dollar kostete. Der Code wurde letzte Woche veröffentlicht und zog die Aufmerksamkeit von Entwicklern auf sich, nachdem einige es angeblich auf Raspberry Pi-Computern und sogar einem Pixel 6-Smartphone zum Laufen brachten.
Alpaca wurde mit 50.000 Textproben verfeinert, um spezifischen Anweisungen zu folgen und so ähnlich wie OpenAI’s text-davinci-003 zu funktionieren. Die Web-Demo, die es jedem ermöglichte, mit dem Modell zu interagieren, wurde jedoch kurz nach dem Start wegen Sicherheitsbedenken und steigenden Hosting-Kosten offline genommen.
Alpaca KI-Modell: Bedenken hinsichtlich Sicherheit und Kosten
Wie alle anderen Sprachmodelle ist auch Alpaca anfällig für das Erzeugen von Fehlinformationen, oft als “Halluzination” bezeichnet. Anstößige Texte sind ebenfalls ein häufiges Ergebnis.
Trotz dieser Einschränkungen glauben die Forscher, dass Alpaca der Gemeinschaft nützlich sein kann und hoffen, dass es die Erforschung von anweisungsgebundenen Modellen und deren Übereinstimmung mit menschlichen Werten fördert.
OpenAI CEO entwickelt biometrisches Iris-Scan-System; Datenschutzbedenken bei Worldcoin-Projekt.
OpenAI CEO Sam Altman möchte Passwörter durch biometrische Iris-Scans ersetzen. Das Worldcoin-Projekt, das Altman mitgegründet hat, hat kürzlich sein lang erwartetes World ID-Verifizierungssystem vorgestellt. Entwickler können sich nun auf die Warteliste eintragen, um World ID in ihre eigenen Apps zu integrieren. Trotz des Interesses großer Investoren wie Andreessen Horowitz und LinkedIn-Mitgründer Reid Hoffman gibt es Bedenken bezüglich der Biometrie und des Datenschutzes.
Das World ID-System erlaubt Identitätsnachweise entweder durch Telefonnummern-Verifikation oder durch den “Orb”, ein iris-scannendes Gerät. Bei erfolgreicher Verifikation erhalten Nutzer 25 Worldcoins, wobei der Wert dieser Münzen noch unklar ist. Die Verfügbarkeit des Orbs ist derzeit auf Länder wie Argentinien, Chile, Indien, Kenia, Portugal und Spanien beschränkt.
Biometrische Daten wie Fingerabdrücke oder Gesichtsmerkmale gelten als sicherere Alternative zu leicht erratbaren Passwörtern. Allerdings gibt es Bedenken hinsichtlich der Sammlung biometrischer Daten, auch wenn diese nicht gespeichert werden. Der Whistleblower und Datenschutzaktivist Edward Snowden äußerte bereits im Oktober 2021 Bedenken gegenüber Worldcoin.
Kollaboration mit KI: Google’s Bard startet in den USA und UK
Google hat heute den Zugang zu Bard, einem frühen Experiment zur Zusammenarbeit mit generativer KI, eröffnet. Zunächst ist das Projekt in den USA und Großbritannien verfügbar, doch weitere Länder und Sprachen sollen bald folgen. Bard kann dazu beitragen, Ihre Produktivität zu steigern, Ihre Ideen zu beschleunigen und Ihre Neugier zu wecken. Bard basiert auf einem großen Sprachmodell (LLM) namens LaMDA und wird im Laufe der Zeit mit neueren, leistungsfähigeren Modellen aktualisiert. Trotz einiger Herausforderungen bietet Bard den Nutzern die Möglichkeit, verschiedene Entwürfe von Antworten auszuwählen, um den besten Startpunkt für ihre Arbeit zu finden.
Wir haben für dich einen Bard Guide erstellt, mit allen relevanten Themen.
Bard kann unter bard.google.com ausprobiert werden.
Schreibe einen Kommentar