Samsung ersetzt Mond-Foto in Kamera-Software: Keine echten Fotos?
Samsung hat ein AI-Modell in der Kamera-Software verwendet, um das Bild des Mondes zu optimieren. Der Nachweis auf Reddit zeigt, dass die Samsung-Smartphones keine echten Fotos des Mondes machen, sondern ein künstlich generiertes Bild mit AI-Optimierung. Die begrenzten Informationen, die vom Bildsensor erhalten werden, machen es notwendig, dieses AI-Modell zu nutzen.
Der Beweis wurde durch Manipulation des Eingangs-Daten durch vorbereitete Screenshots erbracht, die von der Smartphone-Kamera abfotografiert wurden. Da der Screenshot nur eine begrenzte Auflösung mit einem definierten Detailgrad aufweisen kann, kann das Kamera-System hier nicht über mehrere Frames und unterschiedliche Belichtungsparameter Mehrinformationen gewinnen. Nur die Optik kann also keinen höheren Detailgrad erzeugen, weshalb diese Details per AI hinzugefügt wurden.
Samsung wirbt mit einer Komposition aus multiplen Frames und unterschiedlichen Belichtungsparametern, die dann zusammengesetzt werden. Dies ist jedoch etwas anders als ein komplett künstlich per AI erstelltes Bild. Der Umstand, dass der Mond immer die gleiche Seite zeigt, macht es dem AI-Modell von Samsung dabei recht einfach.
Manipulation bei Smartphone-Herstellern ist keine Seltenheit mehr. Auch bei der Optimierung von Benchmarks wird gerne getrickst. Jetzt zeigt sich: Auch bei Fotos ist Vorsicht geboten! Es sollte transparent kommuniziert werden, dass es sich hierbei um kein echtes Foto handelt.
Die Verwendung von AI-Hilfen und komplett generierten Frames in Spielen wird zur Gewohnheit werden. Im Falle von Smartphone-Fotos sollte jedoch jedem inzwischen klar sein, dass das auf dem Smartphone gespeicherte Foto wenig mit der echten Szene zu tun hat.
Virtual Reality und künstliche Intelligenz könnten Tierversuche beenden
Abduction, eine Virtual-Reality-Erfahrung, zeigt die Grausamkeit von Tierversuchen auf. Zukünftige Technologien wie VR und KI könnten bald das Leiden beenden.
Die Virtual-Reality-Erfahrung Abduction zeigt uns das Leiden der Tiere in Laboren und wirft die Frage auf, ob Tierversuche wirklich notwendig sind. Die Zusammenarbeit zwischen dem VR-Studio Prosper XR und der Tierschutzorganisation PETA zielt darauf ab, junge Menschen für die Grausamkeit von Tierversuchen zu sensibilisieren und sie für den Einsatz von überlegeneren, nicht-tierischen Forschungsmethoden zu motivieren.
Tierärztin Dr. Gaby Neumann von den Ärzten gegen Tierversuche e.V. erklärt, dass Tierversuche ineffizient seien, insbesondere in der Arzneimittelentwicklung. Stattdessen könnten KI-Systeme, die auf menschlichen Daten basieren, die Tierversuche in Zukunft überflüssig machen. Das Schweizer Pharmaunternehmen Debiopharm hat bereits damit begonnen, maschinelles Lernen für die menschenbasierte Arzneimittelentwicklung einzusetzen.
Virtual Reality hat auch großes Potenzial in der Medizin, wie z.B. bei der Ausbildung von Chirurgen oder als Anästhetikum. Der Markt für VR in der Medizin wird als Milliardenmarkt vorhergesagt.
Wie Gender-Bias in KI Frauen benachteiligt
Experten warnen vor einem „Gender-Bias“ bei der Verwendung von künstlicher Intelligenz (KI) und betonen, dass Maschinen aufgrund ihrer Datenbasis keine neutralen Entscheidungen treffen können. Die Datenlage sei der wesentliche Knackpunkt, und es könne Jahrhunderte dauern, bis Frauen in gleicher Weise wie Männer berücksichtigt werden, so Sonja Sperber von der Wirtschaftsuniversität (WU) Wien.
KI wird zunehmend als Entscheidungsträger in verschiedenen Branchen eingesetzt, einschließlich heikler Bereiche wie Medizin und Arbeitsmarkt. KI kann jedoch Vorurteile und Klischees in ihren Entscheidungen aufgrund ihrer Datenbasis haben. Bei Werkzeugen wie Stable Diffusion werden aus harmlos wirkenden Begriffen hypersexualisierte Darstellungen von Frauen generiert. Bei der Entscheidungsfindung kann dies zu spürbaren Nachteilen führen, z.B. bei der Eignung von Kandidatinnen auf dem Arbeitsmarkt oder bei der Diagnostik in der Medizin.
Obwohl das Phänomen des „Gender-Bias“ bei Entscheidungen auf Datenbasis schon seit Jahrzehnten beobachtet wird, verstärkt KI dieses Problem letztendlich. Die Hoffnung, dass Maschinen neutrale und faire Entscheidungen treffen würden, erfüllt sich nicht, da die KI auf menschlichen Erfahrungswerten basiert und häufig auf männlichen Daten speist.
Um dem Ungleichgewicht entgegenzuwirken, könnten Bewusstsein geschaffen und Regulierungen implementiert werden. Die EU plant, KI mit ihrem „AI Act“ zu regulieren, und die US-Arzneimittelbehörde FDA schrieb mehr Diversität in den Testphasen von Medikamenten vor, um das Problem des „Gender-Bias“ einzudämmen.