Die Sensortechnologie auf der CES 2026 verfolgte zwei unterschiedliche Wege: Sie verschob die Grenzen der Bildgebung in extremen Umgebungen durch Einzelphotonenerkennung und beseitigte Bewegungsverzerrungen durch großformatige Global Shutter.
Der SPAD-Sensor (Single Photon Avalanche Diode) der nächsten Generation von Canon ist eine der bahnbrechendsten Technologien auf der Messe. Im Gegensatz zu herkömmlichen CMOS-Sensoren, die das akkumulierte Lichtvolumen als analoges Signal messen, nutzt der SPAD-Sensor einen digitalen Photonenzählmechanismus.
Durch die Aufzeichnung der von einem einzelnen Photon ausgelösten Elektronenlawine eliminiert dieser Sensor von Natur aus das Ausleserauschen und sorgt so für ein außergewöhnliches Signal-Rausch-Verhältnis auch bei nahezu völliger Dunkelheit. Canon demonstrierte die Fähigkeit des Sensors, Fußgänger in 120 Metern Entfernung bei einer Beleuchtung von 0,1 Lux deutlich zu erkennen – also bei völliger Dunkelheit.Sein technischer Dynamikbereich von 26 Stufen (entspricht 156 dB) ermöglicht die gleichzeitige Erfassung von Details in den dunkelsten Schatten und den hellsten Lichtern ohne Übersteuerung.
Für die physische KI erhöht diese Technologie die Sicherheit von Systemen des autonomen Fahrens (AD) bei schwierigen Lichtverhältnissen (z. B. Tunnelausfahrten oder nächtliche Blendung) erheblich. In Kombination mit der Bildverarbeitungssoftware von Ubicept eliminiert der SPAD-Sensor außerdem Bewegungsunschärfe, was ihn für die industrielle Hochgeschwindigkeitsinspektion und Robotersicht unverzichtbar macht.
Während Canon die Grenzen des Lichts sprengte, etablierte Sony einen neuen Standard für die Bewegungserfassung. Sony stellte den IMX928 vor, einen großformatigen Global-Shutter-Sensor vom Typ 2.0 (31,9 mm Diagonale) mit der Pregius S-Stack-Architektur.
Herkömmliche Rolling-Shutter-Sensoren leiden unter „Jello-Effekten“ oder geometrischen Verzerrungen, wenn sie sich schnell bewegende Objekte erfassen. Die Pregius S-Architektur von Sony stapelt Signalverarbeitungsschaltkreise unter der Fotodiodenschicht und ermöglicht so die gleichzeitige Belichtung aller Pixel. Bei einer hohen Auflösung von 68,16 Megapixeln erreicht der Sensor eine beeindruckende Auslesegeschwindigkeit von 138,9 fps (8-Bit).
| Sensormodell | Auflösung | Maximale Bildrate | Optisches Format | Kerntechnologie | Anwendung |
| Canon SPAD (Prototyp) | N / A | Hohe Geschwindigkeit | N / A | Photonenzählung/Digital |
Autofahren / Industrie |
| Sony IMX927 | 105,51 MP | 100 fps | Typ 2,5 (39,7 mm) | Pregius S Global Shutter |
FPD-/Halbleiterinspektion |
| Sony IMX928 | 68,16 MP | 138,9 fps | Typ 2.0 (31,9 mm) | Großformat / Quadratisches Pixel | 3D-Vision / Objekterkennung |
| Sony IMX929 | 50,79 MP | 200 fps | Typ 1,8 (28,1 mm) | Hochgeschwindigkeits-Global-Shutter | Sportübertragung / Bewegungsanalyse |
Die Roadmap von Sony zeigt, dass die Global-Shutter-Technologie nicht mehr auf kleine Industriekameras beschränkt ist. Da sich die Formate der Vollformatgröße nähern, dringt diese Technologie in kinotaugliche Systeme und High-End-KI-Vision ein, um eine perfekte zeitliche und räumliche Datenkonsistenz zu gewährleisten.
Die CES 2026 war Zeuge des Übergangs von Metallsensoren von Laborprototypen zur Massenkommerzialisierung. Durch die Nutzung von Nanostrukturen (Metaoberflächen) zur Lichtmanipulation durchbricht diese Technologie die traditionelle Anforderung an gebogene, dicke Linsen.
Das in Singapur ansässige Unternehmen MetaOptics präsentierte glasbasierte Metalllinsen, die mithilfe von Halbleiterprozessen hergestellt werden. Ein herausragendes Exponat war ein 5G-Smartphone-Modul, das den bei modernen Geräten üblichen „Kamerastoß“ vollständig eliminiert.
MetaOptics nutzt einen 12-Zoll-DUV-Lithographieprozess (Deep Ultraviolet).Im Gegensatz zu herkömmlichen kreisförmigen Linsen können Metalllinsen in jeder beliebigen Form hergestellt werden. MetaOptics demonstrierte eine rechteckige Metalllinse, die perfekt zur Form von CMOS-Sensoren passt, eine vollflächige Erfassung ohne Kantenverlust ermöglicht und eine höhere Auflösung in einem viel dünneren Modul liefert.
Diese Verschiebung impliziert, dass sich die Lieferkette für Linsen vom präzisionsmechanischen Schleifen hin zu einem Halbleiter-Gießereimodell verlagert. Dies ermöglicht die monolithische Integration von Optik und Sensoren und ebnet den Weg für mikromedizinische Roboter, ultraleichte Datenbrillen und „unsichtbare“ Smart-Home-Sensoren.
Kyocera hat die Verwendung von Metallen auf den Anzeigebereich ausgeweitet. Durch die präzise Manipulation der Fokuspositionen basierend auf der Wellenlänge des Lichts entwickelte Kyocera einen Prototyp eines „Wearable Aerial Display“ [15, 10, 10].
Dieses System nutzt das extrem dünne Profil von Metalllinsen, um ein kompaktes optisches System zu schaffen, das Bilder mit natürlicher Tiefenwahrnehmung reproduzieren kann. Dadurch wird ein Hauptproblem bei AR – Vergence-Accommodation Conflict (VAC) – behoben, indem es dem Gehirn ermöglicht wird, Objekte in unterschiedlichen Tiefen auf natürliche Weise wahrzunehmen, was die Belastung der Augen erheblich reduziert.
Angesichts einer alternden Weltbevölkerung waren intelligente Linsen zur Alterssichtigkeit und Sehkorrektur ein Highlight der CES 2026. Diese Geräte haben sich von Aufnahmewerkzeugen zu dynamischen menschlichen Sinnesverstärkern entwickelt.
Das finnische Startup IXI stellte eine adaptive Autofokus-Brille vor, die herkömmliche Gleitsicht- oder Bifokallinsen ersetzen soll. Das System kombiniert Flüssigkristalllinsen mit einem Eye-Tracking-System mit extrem geringem Stromverbrauch.
Im Gegensatz zur kamerabasierten Verfolgung verwendet IXI ein „nach innen gerichtetes“ System, bei dem im Rahmen eingebettete Infrarot-LEDs Licht auf das Auge projizieren und Fotodiodenarrays die Reflexion des „Augenfingerabdrucks“ erfassen. Das System überwacht die Blickrichtung mit 60 fps. Wenn ein Benutzer vom Fernsehen zum Nahlesen wechselt, ordnet ein Mikroprozessor die Flüssigkristallmoleküle innerhalb von Millisekunden neu, um die Linsenstärke anzupassen.
Zu den wichtigsten Leistungskennzahlen gehören:
Stromverbrauch:Nur 4 mW, sodass die 35-mAh-Tempelbatterien 18 Stunden lang halten.
Gewicht:Nur 22 Gramm (ohne Gläser), vergleichbar mit Standardrahmen.
Gesundheitseinblicke:Das System kann außerdem die Aufmerksamkeit einschätzen und Zustände wie trockene Augen erkennen, indem es Blinzelfrequenzen und Blickmuster überwacht.
Im professionellen XR-Bereich präsentierte Goeroptics ein Flüssigkristallobjektiv mit variablem Fokus und einer Dicke von weniger als 1 mm.Durch die Verwendung eines elektronischen Antriebs zur Modulation der Flüssigkristallausrichtung ist eine stufenlose Dioptrienanpassung von -3,00 dpt bis +3,00 dpt möglich. Dadurch entfällt die Notwendigkeit von Rezepteinsätzen in XR-Headsets und die durch VAC verursachte Reisekrankheit wird grundsätzlich beseitigt.
Da AR-Brillen darauf vorbereitet sind, Smartphones als nächste Computerplattform abzulösen, haben sich Unternehmen auf der CES 2026 mit dem „optischen Dreieck“ aus Sichtfeld (FoV), Helligkeit und Größe auseinandergesetzt.
Lumus demonstrierte seinen geometrisch reflektierenden Wellenleiter ZOE, der den FoV auf 70 Grad verschiebt – ein gewaltiger Sprung gegenüber dem aktuellen Industriestandard von 50 Grad.ZOE eliminiert außerdem „Lichtlecks“, wodurch die Privatsphäre des Trägers gewährleistet und gleichzeitig eine hohe Umgebungstransparenz erreicht wird.Dadurch kann AR von einfachen Benachrichtigungs-Overlays zu immersiven Arbeitsbereichen mit mehreren Fenstern übergehen.
Um den ganzen Tag über tragbar zu sein, ist das Gewicht entscheidend. Meta-Bounds präsentierte zwei mit dem CES Innovation Award ausgezeichnete Designs: eine monochromatische AR-Brille mit 25 g und eine vollfarbige AI+AR-Brille mit 38 g.Diese verwenden proprietäre Wellenleiter aus Harz (Polymer) anstelle von Glas. Goeroptics stellte außerdem sein F15Pi-Vollfarbharz-Wellenleitermodul vor, das nur 4 g wiegt, aber eine Gitterdurchlässigkeit von über 92 % ohne Regenbogenartefakte beibehält.
| AR/XR-Gerät/Modul | Optische Lösung | Wichtige Spezifikationen/Vorteile | Wichtige Partner |
| Lumus ZOE | Geometrischer reflektierender Wellenleiter | 70° FoV / Hohe Effizienz |
Meta (Potenzial) |
| ASUS ROG Xreal R1 | Mikro-OLED + Prisma | 240-Hz-Aktualisierung / virtueller 171-Zoll-Bildschirm | XREAL, ASUS |
| Sogar Realitäten G2 | Wellenleiter + Monogrün | Privatsphäre ohne Kamera und bereit für Rezepte | Sogar Realitäten |
| Goertek-Spinell (KI) | Beugungswellenleiter | 35g / 4K-Foto / 1080p-Video |
Goeroptik |
| Vuzix/Himax Ref. | Wellenleiter + LCoS | 0,34 c.c. Light Engine / Rezeptbereit |
Vuzix, Himax |
Nach Jahren der Dominanz der „Computerfotografie“ markiert das Jahr 2026 eine Rückkehr zu physikalisch-optischen Vorteilen durch mechanische Innovation.
Xiaomis 17 Ultra verfügt über einen physischen manuellen Zoom-/Fokusring, der das hintere Kameramodul umgibt.Dieser Ring kann Verschiebungen von nur 0,03 mm erkennen und ermöglicht Fotografen so eine gleichmäßige, lineare Fokussierung oder Zoomfunktion mit taktilem Feedback, wodurch die Ungenauigkeit der Fokussierung durch Tippen auf den Bildschirm ausgeglichen wird.
Honor stellte einen „Robot Phone“-Prototyp vor, der einen motorisierten dreiachsigen Gimbal direkt in das Kameramodul integriert. Die Kamera kann Motive unabhängig drehen, neigen und autonom verfolgen und bietet so professionelle Stabilisierung und filmische Verfolgung für Kreative ohne externes Zubehör.
Der ISOCELL HP5-Sensor von Samsung Semiconductor verfügt über die branchenweit kleinsten 0,5-μm-Pixel.Um die Herausforderungen bei der Lichterfassung dieser Größenordnung zu meistern, hat Samsung Mikrolinsen mit hohem Brechungsindex (HRI) direkt in die Sensorstruktur integriert, um eine Reinheit von 200 MP zu gewährleisten und gleichzeitig dünnere Kameramodule zu ermöglichen.
Für professionelle Fotografen bleibt das optische Bokeh der ultimative „Wassergraben“. Sigma verschiebt diese Grenzen auf der CES 2026 weiter.
Sigma kündigte das 135 mm f/1,4 DG DN Art an, das weltweit erste Objektiv, das bei dieser Brennweite eine Blende von f/1,4 erreicht. Es liefert ein Rendering und Bokeh, das sogar das legendäre 105 mm f/1,4 „Bokeh Master“ übertrifft. Darüber hinaus nutzt Sigmas 200 mm f/2 DG DN Sports HLA-Motoren (High-Response Linear Actuator) für eine blitzschnelle Fokussierung, wodurch die f/2-Geschwindigkeit für Indoor-Sportarten und Porträts in den 200-mm-Bereich gebracht wird.
Tamron wurde für sein 28-300 mm f/4-7,1 Di III VC VXD und sein 90 mm f/2,8 Macro mit EISA-Awards ausgezeichnet.Tamrons Strategie, seine beliebten E-Mount-Objektive (wie das 70-180 mm f/2.8 G2) auf das Nikon Z-Mount zu portieren, hat seine Marktpräsenz gegenüber Angeboten einheimischer Hersteller weiter ausgebaut.
Kyocera präsentierte einen KI-basierten Tiefensensor mit einer einzigartigen Dreifachlinsenkonfiguration.Im Gegensatz zu Systemen mit zwei Linsen verarbeitet das Dreilinsen-Setup Reflexionen und durchscheinende Materialien effektiver und misst Objekte mit einer Größe von nur 0,30 mm. Dies ist für medizinische Eingriffe (Erkennung der Anatomie) und industrielle Verkabelungsprüfungen konzipiert [15, 10, 10].
In einer überraschenden Entwicklung stellte Lens Technology erstmals UTG in Luft- und Raumfahrtqualität für LEO-Satelliten-Solaranlagen vor.Durch den Einsatz chemischer Verstärkungs- und Laserschneidtechniken, die bei faltbaren Smartphones entwickelt wurden, ist dieses Glas so dünn wie der Flügel einer Zikade und kann wie ein Maßband aufgerollt werden.Es schützt Solarzellen vor atomarem Sauerstoff und UV-Strahlung im Weltraum und ermöglicht gleichzeitig das Verstauen von Satelliten beim Start mit „Origami-ähnlicher“ Effizienz.
Die Logik des Linsendesigns hat sich auf die Hintergrundbeleuchtung von Fernsehgeräten ausgeweitet. Samsung, LG und Hisense stellten „Micro RGB“-Fernseher vor.Jede einzelne Subpixel-LED (unter 100 μm) ist mit einem Mikrolinsen-Array gepaart, um die Lichtemissionswinkel präzise zu steuern. Dadurch können Flaggschiffmodelle wie der Hisense 116UXS 10.000 Nits und 100 % des BT.2020-Farbraums erreichen.
Das ist das übergeordnete Thema der CES 2026Die optische Linse hat sich von einer „Bilderfassungskarte“ zu einem „Sensor mit geschlossenem Regelkreis für physikalische Interaktion“ entwickelt.
Wie Jensen Huang, CEO von Nvidia, feststellte, ist „Physical AI“ der Hintergrund für all diese Durchbrüche.Ganz gleich, ob es sich um den 26-Stufen-Dynamikbereich von Canon oder den verzerrungsfreien Global Shutter von Sony handelt, das Ziel besteht darin, der physischen KI (autonome Fahrzeuge, Roboter, Humanoide) genaue, reale physikalische Daten zu liefern, die die menschlichen Sinnesfähigkeiten übertreffen.
Für die Branche haben sich drei strategische Ausrichtungen herauskristallisiert:
Unsichtbare Integration:Angetrieben durch Metalenses und Harzwellenleiter, um Technologie in den Alltag zu integrieren.
Absolute Treue:Angetrieben durch SPAD und Global Shutter, um Artefakte bei jedem Licht und jeder Geschwindigkeit zu eliminieren.
Rechnerische Kopplung:Objektive sind nicht mehr unabhängig; Sie sind eng mit KI-NPUs (wie der Tri-Chip-Plattform von Goertek) gekoppelt, um eine semantische Erkennung zu erreichen, sobald Licht in das System eindringt.
Bis Ende 2026 erwarten wir intelligente Brillen für Verbraucher, die wie gewöhnliche Brillen aussehen, den Fokus automatisch anpassen und als proaktiver KI-Assistent fungieren. Linsen werden zu unseren neuen Augen, zur neuen Haut unserer Satelliten und zum neuen Gehirn der Roboterwelt.