Lange Zeit war die Drohnenkinematographie auf die „Weitwinkel-Primär“-Erzählung beschränkt. Frühe Drohnen hatten normalerweise ein einzelnes Objektiv (etwa 24-mm-Äquivalent), was sich zwar hervorragend für großartige Landschaften eignete, bei Luftaufnahmen jedoch den Eindruck von Wiederholungen vermittelte. Als die kreativen Anforderungen eskalierten, begannen Drohnen, Mehrlinsensysteme zu integrieren, um die „Dreifaltigkeit“ der Brennweiten des professionellen Fotografen am Himmel zu rekonstruieren.
Moderne Flaggschiff-Bildgebungsdrohnen verfügen jetzt über Dreifachlinsensysteme (Weitwinkel, mittleres Tele und Tele), um bei Luftaufnahmen eine „Raumkomprimierung“ zu ermöglichen.1Das Entwerfen von drei unabhängigen Bildgebungsmodulen innerhalb eines begrenzten Gimbal-Volumens stellt eine enorme technische Herausforderung dar, was die Gewichtsverteilung und den dynamischen Schwerpunktausgleich betrifft.
Die 24-mm-Hauptkamera verwendet normalerweise einen großen Sensor (z. B. 4/3 CMOS), um erstklassige Bildqualität und Dynamikbereich zu bieten.2Die Hinzufügung der Objektive Medium Tele (70 mm Äquivalent) und Tele (166 mm Äquivalent) bietet eine beispiellose Perspektivenflexibilität.1Das 70-mm-Objektiv, ausgestattet mit einem 1/1,3-Zoll-Sensor, zeichnet sich hervorragend durch die Hervorhebung von Motiven aus und bewahrt gleichzeitig den Eindruck der Umgebung – perfekt für architektonische Strukturen oder Umweltporträts.1
|
Linsensystem |
Äquiv. Brennweite |
Sensorgröße |
Öffnung |
Kernleistungsziel |
|
Hasselblad Wide |
24mm |
4/3 CMOS |
f/2,8 - f/11 |
Extreme Qualität, natürliche Farben, variable Blende2 |
|
Mittleres Tele |
70mm |
1/1,3 CMOS |
f/2,8 |
3-fach optischer Zoom, 4K/60fps, hochauflösender Modus1 |
|
Tele |
166 mm |
1/2 CMOS |
f/3,4 |
7-facher optischer Zoom, 28-facher Hybridzoom, Filmen aus sicherer Entfernung1 |
Das 166-mm-Teleobjektiv ist revolutionär und erhöht die Blende auf $f/3,4$ für ein besseres Auflösungsvermögen im Vergleich zu früheren Generationen.1Bei Luftaufnahmen liegt der Wert eines Teleobjektivs in der „Vermeidung“ – es ermöglicht Piloten, intime Details von Wildtieren oder Motiven einzufangen, ohne in gefährliche Sperrzonen einzudringen oder diese zu betreten.1
Für Produktionen auf Hollywood-Niveau reichen Drohnen mit festem Objektiv nicht aus. Professionelle Systeme wie die Inspire 3 führen Vollformat-Luftbildkameras mit Wechselobjektiv-Ökosystemen ein.4Dabei liegt der Schwerpunkt auf „optischer Stabilität“ und „Workflow-Kompatibilität“.
Die DL-Halterung ist ein proprietäres System, das mit einem ultrakurzen Flanschabstand entwickelt wurde. Die passenden Festbrennweitenobjektive (18 mm, 24 mm, 35 mm, 50 mm) nutzen asphärische (ASPH) Designs, um marginalen Astigmatismus und chromatische Aberration bei großen Blendenöffnungen zu unterdrücken.4Konsistenz ist im Kino von entscheidender Bedeutung – wenn eine Drohne von einer Totalaufnahme zu einer Nahaufnahme wechselt, würden erhebliche Unterschiede in der Farbwiedergabe oder Aberration die Postproduktionskosten drastisch erhöhen. Diese Objektive sind auf das DJI Cinema Color System (DCCS) abgestimmt, um natürliche Hauttöne und feine Schattendetails zu gewährleisten.4
Darüber hinaus befassen sich diese Systeme mit der „Fokusatmung“ – der unangenehmen Verschiebung der Bildkomposition beim Fokussieren der Linse. Durch optimierte optische Strukturen sorgen diese Kinoobjektive für ein stabiles Sichtfeld bei Fokuszügen und erfüllen so die strengen Standards der Filmsprache.4
Wenn filmische Drohnen am Himmel „malen“, „kämpfen“ FPV-Drohnen. Bei extremen Manövern, bei denen die Geschwindigkeit 150 km/h überschreiten kann, besteht die Aufgabe des Objektivs nicht in schönen Bildern, sondern in einem extremen Gefühl für die räumliche Positionierung.
FPV-Piloten benötigen ein ultraweites Sichtfeld (FOV), um Hindernisse wahrzunehmen. In engen Wäldern oder verlassenen Gebäuden sind periphere visuelle Hinweise wichtiger als die Schärfe in der Mitte. Daher verwenden FPV-Objektive extrem kurze Brennweiten, typischerweise zwischen 1,7 mm und 2,8 mm.6
Ein 1,7-mm-Objektiv bietet ein nahezu 170-Grad-Sichtfeld, das die Ränder des menschlichen Sichtfelds abdeckt, aber zu einer starken „Fischaugen“-Tonnenverzerrung führt.6Während diese Verzerrung für die Fotografie ästhetisch „ruiniert“ ist, dient sie Piloten als physische Referenz zur Beurteilung des Nickwinkels der Drohne.
|
Brennweite |
Sichtfeld (FOV) |
Visuelle Eigenschaften und Anwendungen |
|
1,7 mm |
~170° |
Extreme periphere Sicht, ideal für die Vermeidung von Hindernissen in Innenräumen6 |
|
2,1 mm |
~158° |
Mainstream-Wahl für den Rennsport; gleicht Sichtfeld und räumliches Vorstellungsvermögen aus6 |
|
2,5 mm |
~147° |
Ein Kompromiss für das Freestyle-Fliegen6 |
|
2,8 mm |
~130° |
Gilt als die „natürlichste“ Perspektive; Standard für digitales FPV6 |
Mit dem Aufkommen digitaler Systeme (wie DJI O3/O4) drängen FPV-Objektive auf höhere Auflösungen (4K/120fps) und einen besseren Dynamikbereich, was „One-Take“-Film-FPV-Aufnahmen ermöglicht.7
Bei FPV ist eine von traditionellen Fotografen ignorierte Metrik die „Glas-zu-Glas-Latenz“. Dies ist die Zeit vom Auftreffen des Lichts auf den Sensor bis zum Erscheinen des Bildes auf der Brille des Piloten.
Bei einer Geschwindigkeit von 100 Meilen pro Stunde bedeutet eine Verzögerung von 100 ms, dass die Drohne etwa 4,5 Meter weit fliegt, bevor der Pilot sieht, was passiert ist.8Spezielle FPV-Kameras nutzen eine vereinfachte Sensorauslesung und -verarbeitung, um der Geschwindigkeit Vorrang vor der Schärfe zu geben.
Analoge Systeme:Verwenden Sie CCD-Sensoren mit direkter Videoausgabe und erreichen Sie Latenzen unter 20 ms auf Kosten körniger Bilder mit niedriger Auflösung.8
Digitale HD-Systeme:Verwenden Sie Komprimierungsalgorithmen. Moderne Systeme verwenden hohe Bildraten (90 fps oder 120 fps), um die Scanzeit zu verkürzen. Bei 90 Bildern pro Sekunde dauert ein Einzelbild-Scan etwa 11 ms, sodass die Gesamtsystemlatenz unter 30 ms bleibt.7
Darüber hinaus ist Wide Dynamic Range (WDR) von entscheidender Bedeutung. Wenn eine Drohne aus einem dunklen Innenraum in helles Sonnenlicht stürzt, muss das Objektiv die Belichtung anpassen oder hochdynamische Sensoren in Millisekunden verwenden, um eine „Blindheit“ des Piloten zu verhindern.9
In der Welt der Kartierung wird eine Drohne zu einem Präzisionsmessgerät. Das Ziel ist nicht mehr „gut auszusehen“, sondern „genau“ zu sein. Jedes Pixel ist an GPS/RTK-Koordinaten und optische Geometrie gebunden.
Die meisten Digitalkameras verwenden einen „Rolling Shutter“, der die Pixel Zeile für Zeile ausliest. Bei einer sich bewegenden Drohne führt dies zu einem „Jello-Effekt“ – einer geometrischen Verzerrung des Bildes.11
Bei der Vermessung kann eine geometrische Verzerrung von 1 % zu massiven Verschiebungsfehlern in einem 3D-Modell führen. Daher verwenden professionelle Mapping-Objektive (wie die Zenmuse P1) einen mechanischen Global Shutter.13Durch einen zentralen Lamellenverschluss werden alle 45 Millionen Pixel gleichzeitig belichtet. Obwohl es teuer und komplex ist, gewährleistet es eine Genauigkeit im Zentimeterbereich ohne Bodenkontrollpunkte.13
Die Leistung einer Kartierungsdrohne wird durch GSD definiert – die tatsächliche Entfernung am Boden, dargestellt durch ein Pixel. Dies wird durch die Höhe (H), die Pixelgröße (a) und die Brennweite (f) bestimmt:
$$GSD = \frac{H \times a}{f}$$
Bei einem Sensor mit 4,4 $\mu m$ Pixeln liefert ein 24-mm-Objektiv bei 200 m eine GSD von ~3,6 cm, während ein 50-mm-Objektiv eine Präzision von ~1,6 cm liefert.14
|
Brennweite |
Sichtfeld |
GSD-Formel |
Kernanwendung |
|
24mm |
84° |
$GSD = H / 55$ |
Großflächige Orthomosaik-Kartierung5 |
|
35mm |
63,5° |
$GSD = H / 80$ |
3D-Modellierung und Schrägfotografie5 |
|
50mm |
46,8° |
$GSD = H / 120$ |
Feine Rekonstruktion historischer Gebäude5 |
Jedes Mapping-Objektiv wird vor Verlassen des Werks streng kalibriert. Verzerrungskoeffizienten (radial und tangential) werden in den „Dewarpdata“-Metadaten jedes Fotos gespeichert, sodass die Software optische Fehler automatisch ausgleichen kann.13
Bei der Brandbekämpfung, bei der Inspektion von Stromleitungen oder bei der Suche und Rettung (SAR) benötigen Objektive „übermenschliche“ Sinne. Sichtbares Licht ist nur ein Teil der Geschichte; Thermik (Langwellen-Infrarot) und Laser-Ranging sind die Entscheidungsträger.
Wärmebildkameras erfassen Wärmestrahlung. Frühe Industriedrohnen waren auf eine Auflösung von 640 × 512 beschränkt. Die neuesten Flaggschiff-Nutzlasten (wie Zenmuse H30T) haben dies auf 1280 × 1024 erhöht.17
Diese 4-fache Erhöhung der Pixeldichte ist bahnbrechend. Retter können nun aus einer Entfernung von 250 Metern zwischen einem Menschen und einem Tier unterscheiden.19Moderne Infrarotkameras verfügen außerdem über einen optischen Zoom (bis zu 32-fach), sodass Prüfer bei der Überprüfung von Hochspannungsmasten sicher außerhalb elektromagnetischer Störzonen bleiben können.19
Industrieobjektive müssen unter „höllischen“ Bedingungen funktionieren. Für den Nachtbetrieb können „Starlight“-Sensoren mit ISO-Einstellungen bis zu 819.200 und fortschrittlicher Rauschunterdrückung eine pechschwarze Szene in ein klares, farbiges Bild verwandeln.18
Für Smog oder neblige Umgebungen integrieren optische Systeme jetzt „Electronic Dehazing“-Algorithmen.22Dies ist nicht nur ein Kontrastschub; Es nutzt physikalische Modelle der atmosphärischen Streuung, um die Klarheit auf Pixelebene in Echtzeit wiederherzustellen.
|
Sensormodul |
Leistungsvergleich (H20 vs. H30) |
Praktische Verbesserung |
|
Zoom-Kamera |
23x optisch / 200x Hybrid $\rightarrow$ 34x optisch / 400x Hybrid |
Identifizieren Sie Platten/Defekte aus größerer Entfernung17 |
|
Weitwinkelkamera |
12MP (1/2,3") $\rightarrow$ 48MP (1/1,3") |
Größerer Suchbereich mit höherem Dynamikbereich17 |
|
Thermal |
640 × 512 $\rightarrow$ 1280 × 1024 |
4-fache Sucheffizienz, präzise Brunsterkennung17 |
|
Laser-Ranging |
1200m $\rightarrow$ 3000m |
Zielpositionierung und -führung über große Entfernungen17 |
Landwirtschaftliche Drohnen sind Meister der „Multispektral“-Technologie. Ihre Objektive erfassen bestimmte schmale Bänder wie Grün, Rot, Rotrand und Nahinfrarot (NIR).25
In der Landwirtschaft kommt es bei der Beurteilung der Pflanzengesundheit nicht nur darauf an, wie grün sie aussehen. Wenn Pflanzen durch Schädlinge oder Trockenheit gestresst sind, verändert sich ihre Chlorophyllstruktur auf mikroskopischer Ebene, bevor sie für das Auge sichtbar wird.
Das „Red Edge“-Band reagiert äußerst empfindlich auf diese Veränderungen. Durch die Berechnung des Red Edge NDVI (Normalized Difference Vegetation Index) können Landwirte Pflanzenstress Wochen vor dem Eintreten einer Katastrophe erkennen.25Multispektrallinsen helfen auch dabei, den Salzgehalt des Bodens abzubilden, indem sie spektrale Inversionsalgorithmen verwenden, um eine präzise Landbehandlung zu steuern.26
Die Entwicklung der Drohnenoptik ist eine Suche nach „Informationsentropie“.
Bei der Verbrauchertechnologie geht es darum, die emotionale und farbliche Wiedergabetreue der Welt zu maximieren. Bei FPV geht es darum, die Zeitverzögerung für die Einheit von Mensch und Maschine zu minimieren. Bei der Kartierung geht es darum, geometrische Verzerrungen zu beseitigen und einen echten digitalen Zwilling der Erde zu erhalten. Im industriellen und landwirtschaftlichen Bereich geht es darum, die Grenzen des menschlichen Sehvermögens zu überschreiten, um Infrarotstrahlung, Laserpunktwolken und multispektrale Daten zu erfassen.
Die Zukunft der Drohnenoptik liegt in der Integration von „Computational Photography“ und „AI Semantic Understanding“. Objektive erfassen nicht mehr nur Pixel; Sie geben „Bedeutung“ aus – identifizieren automatisch Risse in einer Brücke oder filtern fahrende Autos aus einer Karte heraus. In diesem Höhenspiel der Physik verschieben wir ständig die visuellen Grenzen dessen, was unter der Himmelskuppel möglich ist.
Ich habe den Bericht wie gewünscht ins Englische übersetzt. Ich habe die technische Tiefe und den professionellen Ton beibehalten und gleichzeitig sichergestellt, dass alle Zitate und Daten korrekt wiedergegeben werden. Lassen Sie mich wissen, wenn Sie weitere Anpassungen benötigen!