Professional Documents
Culture Documents
Systemy Wizyjne - MSM2 - 1 Kalibracja Kamery
Systemy Wizyjne - MSM2 - 1 Kalibracja Kamery
Politechniki Białostockiej
Katedra Robotyki i Mechatroniki
Ćwiczenie nr: 1
Kalibracja kamery
Białystok 2022
Cel ćwiczenia
Celem ćwiczenia jest przeprowadzenie pełnego procesu kalibracji kamery jaką jest Kinect v1
oraz Kinect v2.
1. Wprowadzenie
• Parametry wewnętrzne
fx x0
A = 0 fy y0 , (1)
0 0 1
gdzie: fx, fy - ogniskowa kamery wyrażona w liczbie pikseli (dla osi x i y), x0, y0 - współrzędne
punktu głównego (punkt przecięcia osi kamery z płaszczyzną obrazu), γ - współczynnik
określający kąt między osiami x i y czujnika kamery (dla prostopadłych = 0).
xp xn
y = A y . (2)
p n
1 1
Rys. 1 Podstawowe parametry kamery
xd 4 n
x
y = (1 + k1r + k2r ) y + ,
2
(3)
d n
gdzie:
r 2 = xn2 + y n2 , (4)
2p1 xn yn + p2 ( r 2 + 2 xn2 )
= , (5)
2p2 xn yn + p1 ( r 2 + 2yn2 )
• Parametry zewnętrzne
W układzie dwóch kamer można wyznaczyć ich wzajemne położenie, znając zewnętrzne
parametry obu kamer względem tego samego układu odniesienia.
gdzie: R1, R2, T1, T2 - macierze rotacji oraz wektory translacji odpowiednio dla obu kamer; R12,
T12 - macierz rotacji i wektor translacji pierwszej kamery względem drugiej.
Przeliczanie współrzędnych z układu jednej kamery do drugiej odbywa się wtedy według
zależności:
Technologia wykrywania głębi i ruchu stanowiąca podstawę sensora Kinect jest dostępna
dzięki czujnikowi głębi. Oryginalny sensor Kinect v1 (Rys. 3) wykorzystuje w tym celu światło
strukturalne: urządzenie używa wzoru w bliskiej podczerwieni wyświetlanego w przestrzeni
przed sensorem Kinect, podczas gdy czujnik podczerwieni wychwytuje wzór odbitego światła.
Wzór światła jest zniekształcony przez względną głębokość obiektów znajdujących się przed
nim, a do oszacowania tej głębokości można użyć zależności matematycznych związanych
z układem sprzętowym sensora Kinect. Kinect v2 (Rys. 4) używa pomiarów czasu lotu.
Projektor podczerwieni w sensorze Kinect wysyła modulowane światło podczerwone, które
jest następnie przechwytywane przez czujnik. Światło podczerwone odbijające się od bliższych
obiektów będzie miało krótszy czas lotu niż to odbite od elementów bardziej odległych. Czujnik
podczerwieni rejestruje, jak bardzo wzór modulacji został zdeformowany
w zależności od czasu lotu, piksel po pikselu. Pomiary głębokości w czasie lotu mogą być
dokładniejsze i obliczone w krótszym czasie, co pozwala na wykrycie większej liczby klatek na
sekundę [3].
3. Przebieg ćwiczenia
Ćwiczenie należy rozpocząć od uruchomienia programu Matlab i narzędzia Camera Calibrator
w zakładce APPS (rys. 5).
UWAGA. Jeśli w zakładce APPS nie ma narzędzia Camera Calibrator należy doinstalować
brakując dodatki jak: Computer Vision Toolbox oraz Webcam Toolbox.
Kolejne etapy:
1. Temat ćwiczenia.
2. Datę wykonania ćwiczenia.
3. Przebieg realizacji ćwiczenia.
4. Wyniki pomiarów i identyfikacji wzorców kalibracyjnych.
5. Określenie parametrów kalibracyjnych kamery Kinect v1 oraz Kinect v2.
6. Wnioski.
5. Pytania kontrolne
1) Co to jest kalibracja?
2) Opisać rodzaje parametrów kamery.
3) Jak wyznaczyć wzajemne położenie w układzie dwóch kamer?
4) Jaka jest różnica pomiędzy kamerą Kinect v1 a Kinect v2?
6. Literatura
[4] Z. Cai, J. Han, Li Liu, Ling Shao, RGB-D datasets using microsoft kinect or similarsensors: a
survey, Multimed Tools Appl, 76:4313–4355, 2017.