FCD - FxxTrack Reloaded

Jubu

User
Ich hab nen schwarzen und nen blauen USB Port. Ist das dann USB2 und 3?

Ich werde dann mit den neuen Cams wieder testen.

Ich weiss es ist ziemlicher Aufwand aber ein Setup-Menü bzw. ein Start-Setup wäre echt toll. Da in den Dateien rumzuschreiben ist für nen User schon eine Herausforderung;-)

Das Menü wäre doch alleine deshalb toll weil man da vielleicht jede Cam einstellen und parametrisieren könnte.

Ev. geht es mit einem extern stromversorgten USB Hub auch? Der sollte dann ja die nötige, fehlende Leistung erbringen, oder hat das dann trotzdem mit dem internen Hub nix zu tun?

In meiner Küche kamen zudem viele Fehlauslösungen. Ein Filtermenü wäre somit auch toll. Ich nehme an das sind zu viele Wünsche, würden aber die Testzyklen kürzen.


Jubu, du hast Mail.

lg, Gernot

Mein lieber Gernot,

wenn du in der Lage bist, in einem Excel-Sheet 3 Zahlen einzutragen (und davon darf ich ja wohl ausgehen), dann kannst du auch 3 Zahlen in der Parameterdatei ändern, da bin ich mir ganz sicher!
Ein Klicki-Klicki-Menü zum Parametrieren werde ich nicht bereitstellen, aber der Sourcecode ist ja bekannt, da kann ja mal jemand anders seine Wochenenden mit verbringen. Bedenke bitte dass alles für preiswerte Minirechner ausgelegt und optimiert ist; die Portierung auf Windows hat eben nur Testcharakter, da darf man auch schon mal 2 Minuten selbst Hand anlegen.
Zu deinen Fragen: Der blaue USB-Port ist USB3, richtig.
Ein externer Hub kann helfen, ja. Übrigens: die Hersteller professioneller Kameras verweigen den Support für Multi-Kameraanwendungen unter Windows wegen der vielen, vielen Abhängigkeiten und oft schlechter Implementierung der Treiber. Hab ich bei FLIR gelesen. Und sie tun gut daran; es hilft nur selbst veruchen!
Grudsätzlich kann man nicht jede Kamera verwenden oder einstellen, nimm die Empfehlung oder versuche es selbst. Was ich bei Bedarf beisteuern kann ist eine Test-Software, die die grundsätzliche Eignung der Kamera für FCD bzw. FxxTrack prüft und alle unterstützen Auflösungen ausgibt, aber dazu kannst du einfach FxxTrack nehmen, da gibt es ein Menü.
Wenn ich davon ausgehen darf, dass in deiner Küche nicht gerade etwas angebrannt ist und Rauchschwaden durch den Raum wabern und als Bewegung wahrgenommen werden, nehm ich an, dass es zu dunkel für die Kamera ist (dann rauscht sie schon heftig), oder dass sie ein größeres Grundrauschen als die empfohlenen Kameras hat. Dafür gibt es ja den dritten Parameter (threshold), den man aussen typisch auf 1 oder 2 stellt, im Innenraum aber auf 3-4 stellen muss. Die Rauschunterdrückung ist eingebaut, ist aber halt kameraabhängig und deshalb parametrierbar.

Und nochwas: Multikamera ist nur ein Gimmik auf dem Weg zur perfekten Wendeerkennung, ich persönlich halte die gemeinsame Optimierung der Bewegungserkennung mit einer Kamera als viel wichtiger.

Jürgen
 
Hallo Jürgen.

Leicht machst du es einem nicht unbedingt ;), aber natürlich verstehe ich auch, dass - egal wie - es für einen Entwickler viel Arbeit ist.

Jetzt mal eine Idee, die nicht von mir kommt aber für mich irgendwie einen guten Ansatz hat:

Beschleunigungssensor im Modell, Sender im Modell, mitfahrende Kamera, zoomende Kamera

Wenn das Modell vor dem Start bez. Sensoren genullt wird und eine Wahrscheinlichkeitsrechnung über die jew. Beschleunigung der 3 Sensoren stattfindet um die wahrscheinlichste Position des Modells im Raum zu definieren und die Cam beim Nillen die A-Wende ausgerichtet anvisiert, dann sollte die Cam immer motfahren können und die Software das Signal auslösen wenn die Cam auf einer definierten Position stehen bleibt bzw. das Modell dann per Bildtracking die Linie überfliegt.

Vielleicht wäre das wirklich ein Ansatz?

Meine Tel-Nr. hast ja, ich leider deine nicht, sonst hätten wir schon telefoniert (was mir sehr recht wäre als hier Romane zu schreiben).

lg, Gernot

lg, Gernot
 

Jubu

User
Hast PN

Im Prinzip geht das, ich glaube die D-ler machen schon so was. Macht die Sache aber immer komplizierer. Ist aber ein guter Hinweis, wenn wir mit den einfachen Dingen am Ende sind.
 
Test zu Hause mit den neuen C922 Cams lief heute schon ganz gut. Morgen teste ich ein paar Bilder draussen. Wie kann ich das Bild auf meinem Laptop in der Höhe darstellen? Mein kleiner Laptop den ich auch fürs Fxx nehme kann nur eine Höhe von max. 768...

Gäbe es da bitte eine Möglichkeit das Bild zu drehen, denn in der Breite ginge es bis 1366.

Oder kann man die Anzeige irgendwie skalieren?

Das wär super, da ich sonst nicht sagen kann wie die Werte sind die unten im unteren Bild angezeigt werden.

https://www.dropbox.com/sh/aep6zmn1xq8cj7y/AADPVBJNOGWrAGVnhk-4nqJHa?dl=0

lg, Gernot
 
So, heute mal brav getestet mit Jürgen an der Support-Line :D

Es hat sich gezeigt, dass die Logitech C922 sehr gut arbeitet, jedoch eine höhere Auflösung als 800x448 nicht funktioniert, da dann die fps recht flott runter gehen.

Alternativ wäre noch 864x480 möglich, hier ist dann aber wieder die Verarbeitungszeit am Computer länger und mehr als 24fps sind damit nicht zu schaffen.

Also Auflösung 800*448/30fps funktioniert super.

Mehr als 30fps konnten auch bei kleineren Auflösungen nicht mehr generiert werden, da bei USB2 anscheinend bei der Rate Schluss ist.

Test fanden direkt fast direkt in die Sonne statt. Der Dunklungssensor in der Cam funktioniert super, und wenn man nicht unbedingt die B-Wende in der Sonne hat, aber knapp dran ist könnte es trotzdem noch funktionieren.

Ich plädiere wirklich für eine komplette Windows-Lösung, weil es einfach für viel mehr User Verwendung finden kann. Man braucht dann nur noch 2 Cams und entweder ein Kabel, ein paar Funkgeräte oder Jürgens Piepser um das Signal zur A-Wende zu bekommen.

Vielleicht gäbe es über diverse Befehle im Programm auch noch kleinere Feinabstimmungsmöglichkeiten der Cam, aber im Grunde wäre es ein Plug&Play System. Getestet hab ich mit 2 Lenovo - Laptops.

Ein kleiner Lenovo s20-30 für (Ende 2015) EUR 299,- und einen Standard-Office-Low-Level Lenovo e50-80. Der kleine hat 1x USB2 und 1x USB 3, der große hat 1xUSB2 und 2x USB3. Tests an USB3 Ports hatten die selben Werte wie an USB 2 Ports, somit zeigt sich, dass die Cam einfach nicht mehr kann als USB2 und somit auch die Auflösung bei 800*448/30fps super funktioniert, da zumindest echte 30fps anstehen. Leider sieht man im FXX ja nicht wirklich wie viele fps tatsächlich erreicht werden, somit schon eine gute Lösung die Werte in das Live-Bild einzubauen.

Wenn ich einen Vorschlag machen darf:
Es gibt weit mehr User mit einem Laptop als mit dem nur für FCD benötigen Kleinrechner. Die meisten Laptops haben Windows drauf, somit wäre eine Entwicklung in Richtung Windows (10) alterativ wählbar mit 1 oder 2 Cam-Funktion sicher die für die meisten Interessenten in Frage kommende Lösung - weil sie sich einfach anbietet.
Die C922 liefert super Bilder, auch in den Tests schneidet sie überall hervorragend ab. Somit würde ich auch hier vorschlagen vorwiegend für 2 oder maximal 3 Cam-Typen eine Steuerung/Optimierung zu entwickeln, wer eine schlechtere/andere Cam hat, der muss sich dann damit zufrieden geben dass FCD unter Umständen nicht optimal funktionieren kann (muss aber nicht sein). Wenn man sich auf 2-3 Cams einschießt und hier vielleicht rausfindet, wie man die Cam-Funktionen nutzen kann, dann könnte das ja vielleicht auch was bringen. Die C922 macht im Grunde alles vollautomatisch (Weißabgleich und Auto-Focus), das sind mmn schon gute Sachen die zumindest auch bei der Bildqualität helfen können.

Das vorläufig einzige Problem das ich hatte, war die Darstellung am Bildschirm. Ich muss meinen kompletten Desktop um 90 Grad drehen und den PC somit aufstellen, damit ich beide Bilder untereinander sehen kann.
Hier wäre es interessant ob:
Es möglich wäre nur das Bild kleiner darzustellen, die Cam aber in der gewählten Auflösung weiterarbeiten zu lassen oder
Nur die Bilder in der Ausgabe so zu drehen, dass diese entweder um 90Grad gedreht untereinander über die Breite des Bildschirmes gehen oder dass die Bilder nebeneinander stehen.

Zum Einrichten beider Cams wären sicherlich untereinander angeordnete Bilder besser, zumal man mmn bei jedem Test ggfs. neu anordnen muss. Warum? Weil mein PC bei einem Neustart nicht immer die gleiche Cam als Device1 genommen hat. Auf einmal war dann die zuerst unten angeordnete Cam für das obere Bild zuständig.

Hier würde nur ein Pre-Check helfen bei dem man nach dem Start definieren könnte, welche Cam oben und welche unten sein soll und dann das Bild entsprechend der Auswahl neu angeordnet wird.

Aber wie gesagt, wenn man keinen hochauflösenden Laptop-Bildschirm hat wie es bei Lenovo anscheinend der Fall ist, dann braucht man die Bilder um 90Grad gedreht auf dem Bildschirm. Der Breite nach geht sich am Monitor die nötige "Höhe" der beiden zusammengefassten Bilder locker aus.

Soweit meine Info zu den heutigen Tests, am Wochenende wird im Flug getestet bezüglich der Erkennung des Modells unter Windows. Dazu mische ich vorerst mein bisheriges Signalsystem (Funkgeräte) mit FCD, später - wenn ich mal Zeit hab werden dann die Piepser von Jürgen fertig gebaut und implementiert.

Lg, Gernot
 

Jubu

User
Fleißig, fleißig! So soll es sein.

Ich persönlich favorisiere eine embedded Lösung mit dedizierter Hardware, die dann einfach geht. Aber eine reine Windows-Lösung hat natürlich auch ihren Charme.

Deshalb gibt es als Belohnung eine neue (Windows-)Version von fcd, Version 2.1.1 hier : https://www.dropbox.com/sh/l5c73emft8uf5f6/AADbKIPMiuHhmsW1UMCiRTD9a?dl=0

Was sich geändert hat:

1) wird im Multi-Kameramode der Parameter "splitVideoHorizontally" auf true gesetzt, werden die beiden Kamerabilder in 2 Fenstern nebeneinander dargestellt, für alle ohne Riesenbildschirm
2) wird zusätzlich der Parameter "rotateVideoOut" auf false gesetzt, wird das wieder das kombinierte Kamerabild ausgegeben, jetzt aber liegend. (dieser Parameter hat Priorität gegenüber "splitVideoHorizontally".
3) wird der Parameter "controlWindowEnabled" auf true gesetzt, wird ein weiteres Fenster mit 8 Parameter-Einstellmöglichkeiten geöffnet, die sich auf die Bewegungserkennung beziehen und online änderbar sind. Dies dient der späteren Optimierung der Wendeerkennung, wenn entsprechendes Videomaterial von Testflügen vorliegt. Wer aber nicht genau weiß was er tut, lässt das Fenster besser ausgeschaltet, es ist schnell alles verstellt und nichst scheint dann mehr zu gehen (bei einem Neustart wird allerdings wieder alles von fcd.json eingelesen, dann ist alles wieder auf den bis jetzt optimierten Defaults)
4) Zum Aufzeichnen von Video-Rohdatenzur Erkennungs-Optimierung ist der Parameter "recordMotionBased" auf false zu setzen, sodass ein kontinuierlicher Videostream mit Rohdaten aufgezeichnet wird (ca. 1GB/min.n nicht nur die Augenblicke während der Objekterkennung), der zur Analyse anstelle von Kameradaten eingespielt werden kann. Zum Starten der Aufzeichnung ist im Videofenster R einzugeben, zum Anhalten r.
5) Das Einspielen von aufgezeichneten Daten erfolgt hier mit: fcd.exe -c fcd.json -f fcd_xxxxxxxx.avi (dabei steht xxxxxxx für das aktuelle Aufzeichnungsdatum). Im Videofenster erscheint das aufgezeichnete Video mit den frisch errechneten Blobs (blau), Object-Candidates (rot) ,tracked Objects (gelbe Rechtecke und Bewegungsspuren (gelbe Linie). Zur Optimierung ist das Video mehrfach abzuspielen (oder auch passend zurechtzuschneiden) und die Online-Parameter vorsichtig (!) anzupassen. Es ist immer ein Kompromiss für sehr viel mögliche Bewegungs-Varianten zu finden.

Viel Erfolg beim Ausprobieren, und immer schön berichten, sodass alle etwas davon haben!
 
Spitze Jürgen. Du bist aber auch sehr fleissig. Spitze!!

Was mir jetzt noch einfällt:

Wäre es möglich die Aufzeichnung irgendwie zu steuern? Wenn ich das System auf der B aufstelle, dann zur A gehe vergehn vermutlich schon 2GB (2 Minuten) Dann fliege ich 3:20 Minuten und kann aber nicht abschalten sondern segle ja noch 10 Minuten. Bis ich dann wieder beim System bin sinds nochmal 2 Minuten... also haben wir 15-20GB pro Flug von denen 3,2GB relevant sind. In den 3,2GB sind sagen wir mal 10x4er geflogen worden, also ist man 20x an der B durchgeflogen. Das hat vermutlich in der Aufzeichnung eine Zeit pro Durchflug von 2 Sekunden im Video. Also sind in den eigentlichen 3,2GB gerade mal 0,64GB interessant.

Ob die Steuerung jetzt über die Auslösung des ersten Trackings erfolgt (Aufzeichnung ein, Laufzeit zb fixe 5-6 Minuten), oder ggfs. iwie über ein Signal von aussen das die Tastatureingabe ersetzt oder sonst iwie möglich wäre weiss ich nicht. Jeti kann iwas mit dig. Signal 0 oder 1), man könnte auf die Tastatur ein Servo kleben und den Befehl über die Leertaste steuern, indem man das Signal von motor ein/ Aus nutzt ( Kontrollempfänger hätten wir ja alle ind ein altes Servo doch auch). Aber vermutlich gibts da feinere Lösungsmöglichkeiten...
Oder man startet die Aufzeichnung. die läuft dann aber erst mit countdownsignal nach zb 2 Minuten an und wird nach weiteren 4 Minuten autom. berndet. So hätte man mal wenigstens nir noch 4 GB.

Würde die Aufzeichnung auf einer SD-Karte schneller erfolgen können? Dann könnte man ja über nen Parameter auch das Laufwerk angeben auf das geschrieben werden soll, oder? Wenns egal ist und nix bringt, dann halt einfach auf die Festplatte.

Videoschnitt nach Aufzeichnung. Hier greife ich ein neues Thema auf. Die 4 GB könnten ja noch verkleinert werden, würden - ich nenn es mal - Schnittmarken ins Video eingesetzt die zu beginn eines trackings gesetzt werden und dann wieder nach 3 oder 4 sekunden gesetzt werden, oder nach 1-2 s nach dem Wendesignal. Toll wäre dann eine sw, die dann einen autom. schnitt ausführt und somit ein video erzeugt dass man easy verschicken kann wtils nur noch 0,6-1Gb hat.

Vielleicht hältst du die Idee mal fest?

lg, Gernot
 

Jubu

User
Wir reden hier über Features, die für den gemeinsamen Optimierungsvorgang bereitgestellt werden. Für den 'nur' Anwender ist die Aufzeichnung bewegungsgesteuert mit einer einstellbaren Anzahl von nachlaufenden Frames (default 40). Wenn es wie hier aber darum geht, die Bewegungserkennung zu optimieren, müssen wir auch Aufzeichnen, wenn nichts erkannt wird, um später aus unerkannten Bewegungen erkannte zu machen!
Die Schreibrate auf SD-Karten ist nicht umwerfend, bleib lieber bei der Festplatte (die du ev. auch gegen eine SSD-Platte austauschen kannst). Statt SD käme auch ein USB3-Memorystick in Frage (wie bei der embedded Lösung), könnte sich aber mit den Kameras kabbeln.
Zur Steuerung der Aufzeichnung: ist in der embedded Version ja bereits vorhanden (wenn du mit der kleinen Richtantenne arbeitest); dann geht alles vom Smartphone aus. Wie schon öfters erwähnt: eine reine Windows-Version war bisher nicht das Ziel, da fehlen noch ein paar Dinge, die unter Linux einfach anders implementiert und noch nicht portiert sind.

Jürgen
 
Hallo Jürgen.
PERFEKT, DANKE!

Jetzt bin ich noch auf der Suche nach Ideen wie man die Cams exakt ausrichten kann. Wenn man am Flugfeld steht und der Himmel blau ist, dann ist es unmöglich die obere Cam zur unteren auszurichten, damit die vertikale Linie sowie die Bildüberlappung stimmt.

Ich hab mir gedacht, ich nehme ein Teleskoprohr mit Markierungen auf dem Rohr und 2 Libellen zur Ausrichtung des Rohres (damits gerade steht). Das Rohr müsste dann mit einem gewissen Abstand vor den Cams positioniert werden.

Jetzt meine Frage - die vermutlich aber auch Auflösungsbedingt mehrere Antworten abgibt - darum mal für die Auflösung 800*448 die ich verwende, und bitte auch - falls es mal nicht so schön ist und die 30fps mit dieser Auflösung nicht erreicht werden - für die Auflösung von 640*360:
Wie weit muss das Rohr von den Cams entfernt stehen und in welcher Höhe gehören die Markierungen für:
Unteres Bild oberer Rand
Oberes Bild unterer Rand
für die jeweiligen Auflösungen.

Ich nehme an, über die Software kann man ja keine Einrichtung integrieren, die irgendwie anzeigt, wann die obere Cam mit der Unteren vertikal und horizontal richtig zueinander ausgerichtet ist?

lg, Gernot
 

Jubu

User
Gernot,

Zum Ausrichten der beiden Kameras für Multi-Kamerabetrieb folgender Vorschlag für optimale Ergebnisse:

Zielvorstellung für den optimalen Betrieb sind:
1) Bildunterkante der unteren Kamera (in der auch die Uhrzeit und Leistungsdaten eingeblendet sind) sollte 2,5° über dem Horizont stehen, sodass Gras, Buschwerk, etc. nicht mehr sichtbar sind.
2) Der vertikale Öffnungswinkel einer um 90° gedreht montierten Kameras beträgt 45,5° (MS LifeCam und Logitech 920/922), wenn die optimale Auflösung von 800x448 eingestellt ist
3) Die Öffnungswinkel der beiden Kameras sollten sich leicht um 0,5° überlappen
4) Daraus folgt als (theoretischer) Einstellwinkel der Kameralängsachsen 25° für die untere Kamera und 70° für die obere Kamera
5) Der kombinierte Öffnungswinkel beträgt so 90,5°, 2,5° über dem Horizont bis 93° leicht nach hinten schauend. Damit ist die Aufstellung direkt auf der Grundlinie ohne Zurückversetzen möglich.
Um die (einmalige) Einstellungen der Kameras zueinander zu erleichtern kann wie folgt vorgegangen werden:
Man errichte einen 1m langes Kohlestab(-rohr) in 75cm Entfernung vor den Kameras, z.B. auf einem weiteren Kameraständer. Das untere Ende des Stabes sollte sich waagerecht in genau der Höhe des Mittelpunktes der unteren Kamera befinden. Genau 3,3cm über dem unteren Ende wird eine Markierung (M1) angebracht (Tape). Eine zweite Markierung (M2) ist 83,3cm über dem unteren Ende anzubringen. Eine dritte Markierung (M3) nochmals über der zweiten, der Abstand sollte dem vertikalen Abstand der Kameramittelpunkte, vermindert um 1,3cm, entsprechen.
Dann sind die beiden Kameras mit Hilfe der im Videobild senkrecht eingeblendeten B-Linie und des Stabes
a) exakt vertikal parallel zum Stab auszurichten, und
b) anschließend durch horizontales Schwenken B-Linie(n) und Stab in Deckung zu bringen
c) nun den unteren Bildrand der unteren Kamera durch vertikales Schwenken auf die unterste Marke (M1) ausrichten. Als Kontrolle sollte sich die zweite Marke (M2) genau am oberen Bildrand der unteren Kamera befinden (ggf. Stababstand leicht anpassen)
d) Abschließend die Bildunterkante der oberen Kamera durch vertikales Schwenken auf die dritte Marke (M3) ausrichten
Das ist es. Da Bilder mehr sagen als Worte, hier noch eine Skizze (Kopf um 90° nach links drehen ;-):

IMG_2233.jpg
 
Für alle Interessierten mal zur Info.

Es laufen gerade einige Tests. Ich hatte am Wochenende 10 aufgenommene Flüge und Jürgen ist so nett und wertet die aus.
Hoffe wir können bald mit Neuigkeiten aufwarten, was aber echt wichtig wäre - bitte nehmt euch doch auch mal Zeit zum Testen.

Vielleicht schafft die 30fps ja sogar eure eingebaute Webcam im Laptop. Für 1-2h rennt doch auch ein Laptop ohne ext. Stromversorgung. Wenn ihr FCD startet seht ihr ja eh gleich ob die 30fps geschafft werden (links unten im angezeigten Bild).

Und dann einfach Infos posten wie es funktioniert hat. Ich finde es irgendwie komisch dass hier keiner mitmacht aber alle so sehr begeistert sind davon, dass es so ein Programm gibt.... es wäre echt super wenn ihr dann auch beim Testen mithelft, dann wird aus dem Programm ein SUPER-Programm!!

Wenn jemand Hilfe braucht bei der Inbetriebnahme, dann einfach eine PN an mich. Denke ich kann helfen und somit Jürgen etwas entlasten mit Einsteigerfragen, damit er sich mehr ums Programmieren kümmern kann.

lg, Gernot
 

kolla666

User
Wie läuft es ?

Wie läuft es ?

Hallo,

ich bin neu im F3F "Business" und selbst sehr an einer Autonomen Zeitmessung interessiert. Gleichzeitig bin ich auch Soft Entwickler und habe auch einige gute Entwickler zu Verfügung.
Keule01 also Robert sagte ich soll mal bei Euch nachfragen und mir das mal ansehen.

Ich habe noch nicht geschafft mir alles anzulesen was auf der Welt probiert wurde aber einiges schien ganz interessant.
Ich selbst habe auch einen eventuellen Lösungsansatz aber erst wollte ich noch etwas erfahren.

Was ist für euch das größte Problem mit dem Videotracking, was behindert euch es bei Wettbewerben wie F3F einzusetzen? Die Frage ist naiv aber ich bin sicher das ich nicht alle Regelwerke kenne und vielleicht etwas offensichtliches übersehe.

Ich hoffe ich kann helfen, würde es auch gern machen :)

Gruß
Marko
 

kolla666

User
Zum Thema Kamera Tracking

Zum Thema Kamera Tracking

Ich finde eine Kamera Lösung etwas übertrieben aber wenn schon Kameras dann warum nicht eine quasi Triangulation. 2 Kameras . Eine an Gate A die zweite an Gate B. Startstelle ist doch vorgeschrieben.
Bei start erfassen beide Kameras das Flugzeug und verfolgen es die ganze Zeit wodurch das System sofort weis wenn die Wende durchflogen wurde. (Zur besseren Erkennung kommt z.B. ein leuchtender Marker - Aufkleber auf das Flugzeug falls nötig ..... )
Alle Störquellen fallen weg wie Vögel Insekten, das Blenden der Sonne ist auch egal beide Kameras können nicht gleichzeitig geblendet werden und die geblendete kann doch durch Berechnungen kompensiert werden für die Sekunde.

Gruß
Marko
 
So einfach ist das ganze nicht wie man es sich vorstellt ;)

Natürlich ist alles möglich, aber nur für den, der dann auch gerne die Kosten dafür trägt. Eine Kamera die auf eine Entfernung von 100m ein Modell 100%ig erkennen und von allen anderen Dingen in der Luft unterscheiden muss, eventuell einen kleinen Aufkleber (den man ja selbst schon fast nicht mehr mit freiem Auge sieht, der für eine Kamera grade mal 1-2 Pixel groß ist (schau mal nach wie groß 1 Pixel auf deinem Monitor ist...) und sich mit >200km/h 3dimensional (in jeder Lage) bewegt), dann noch gegen die Sonne, gegen Wolken, wenn es dunkel ist, wenn es hell ist, wenn es trüb ist, wenn es Schatten gibt.......

Eine 100%ig Funktion kann man daher mit Kameras alleine nicht gewährleisten. Daher sind Systeme wie FCD und FXX auch als Trainingssysteme gedacht und werden vermutlich nie den Weg als Wettbewerbssystem finden.

Für Wettbewerbe entwickeln wir gerade mit einem vielversprechenden Ansatz (Prinzip der Mulitlateration), leider wird das noch ein wenig dauern. Geht über die TU Graz (Institut für HF-Technik) als Diplomarbeit, und selbst hier gibt es einige Kontroversen die erst mal ausgeschlossen bzw. diskutiert werden müssen. Hier kann sich aber jeder gerne beteiligen und gerne spenden - aktuell liegen wir bereits nur für die Elektronik-Teile bei grob 1.500,- für den Hauptteil des Systems, das komplette System wird wohl oder übel in der Prototypenphase bei 2-2.500,- liegen. In Serie wird's dann billiger, aber zuerst muss man mal ein System haben das funktioniert...
Das System soll dann auch in Wettbewerben eingesetzt werden und eine Genauigkeit von +/-5m haben auf jeder Wende.

lg, Gernot
 

kolla666

User
Sauberer Code

Sauberer Code

Mein Kompliment schön geschriebener code. Versuche Ihn gerade noch mal zu kompilieren, damit ich alles nötige auf dem Rechner habe wenn ich auf das Feld gehe und teste dann kann ich den Code on the flow anpassen.
 
Was ist für euch das größte Problem mit dem Videotracking, was behindert euch es bei Wettbewerben wie F3F einzusetzen? Die Frage ist naiv aber ich bin sicher das ich nicht alle Regelwerke kenne und vielleicht etwas offensichtliches übersehe.

Meiner Meinung nach scheitert es an Hardware. Spezialisierte Kameras welche eine genügend hohe Auflösung plus Framerate haben würde 99% aller Wenden detektieren. Nur wer zahlt das?
Ich denke auf der Softwareseite hat Jürgen ganze Arbeit geleistet sodass hier nicht mehr viel zu tun ist.

Zwei Kameras mit einer art Stereoskop-Auswertung hört sich ganz interessant an. Bis die Praxis zuschlägt. 150m Distanz zwischen den Kameras. Wie überwindet man die, sodass das ganze noch praktikabel bleibt?
 
Ansicht hell / dunkel umschalten
Oben Unten