Professional Documents
Culture Documents
Belal Final PDF
Belal Final PDF
net/publication/292159029
CITATIONS READS
0 511
1 author:
Belal Alshaqaqi
Université Oran 2
22 PUBLICATIONS 137 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Belal Alshaqaqi on 06 February 2016.
Mohamed BOUDIAF
DEPARTEMENT D’ELECTRONIQUE
SPECIALITE : ELECTRONIQUE
PRESENTE PAR
Mr ALSHAQAQI Belal
SOUTENU LE : 08/07/2009
Devant le jury :
إھـــﺪاء
ﺗ
i
Remerciements
ﺷــــﻜﺮ
ﻟﻦ ﺗﻔﻲ اﻟﻜﻠﻤﺎت ﻟﻮﺻﻒ ﺷﻌﻮري ﺗﺠﺎه أو ﻟﺌﻚ اﻟﺬﯾﻦ ﻣﻨﺤﻮﻧﻲ وﻗﺘﮭﻢ وﺟﮭﺪھﻢ وﻗﺒﻞ ﻛﻞ ﺷﻲء ﻣﻨﺤﻮﻧﻲ ﻋﺎﺋﻠﺔ ﺛﺎﻧﯿﺔ ﻓﻲ
ﺑﻠﺪي اﻟﺜﺎﻧﻲ اﻟﺠﺰاﺋﺮ .
ﺷﻜﺮي ﻟﻠﺠﺰاﺋﺮ اﻛﺒﺮ ﻣﻦ ﻛﻞ اﻟﻜﻠﻤﺎت اﻟﺘﻲ ﯾﻤﻜﻨﻨﻲ أن اﻋﺒﺮ ﻋﻨﮭﺎ ،وھﻮ ﻓﻲ اﻟﻤﻘﺎم اﻷول ﻟﻤﺨﺒﺮ اﻹﺷﺎرات
واﻟﺼﻮر ﻓﻠﻘﺪ أﺗﻤﻤﺖ ﺑﮫ اﻵن ﺷﮭﺎدة اﻟﮭﻨﺪﺳﺔ واﻟﻤﺎﺟﺴﺘﯿﺮ ،وﻋﻨﺪ ذﻛﺮي ﻟﮭﺬا اﻟﻤﺨﺒﺮ أﺗﻘﺪم ﺑﺸﻜﺮي واﻣﺘﻨﺎﻧﻲ
ﻷﺳﺘﺎذي وﻣﻌﻠﻤﻲ اﻟﺒﺮوﻓﺴﻮر أوﻋﺎﻣﺮي ﻋﺒﺪ اﻟﻌﺰﯾﺰ ﻓﻠﮫ ﻣﻨﻲ ﻛﻞ اﻻﺣﺘﺮام واﻟﺘﺒﺠﯿﻞ ﻟﻤﺎ ﻣﻨﺤﮫ ﻟﻲ ﻣﻦ ﻋﻠﻢ ووﻗﺖ
وﻣﺘﺎﺑﻌﺔ وﺗﺸﺠﯿﻊ ﻛﺎن ﻟﮫ دور ﻛﺒﯿﺮ ﻓﻲ إﺗﻤﺎﻣﻲ ﻟﺮﺳﺎﻟﺔ اﻟﻤﺎﺟﺴﺘﯿﺮ ﻓﻲ ھﺬا اﻟﻮﻗﺖ اﻟﻘﺼﯿﺮ ﻛﻤﺎ واﺷﻜﺮه ﻋﻠﻰ ﺛﻘﺘﮫ
اﻟﺘﻲ ﻣﻨﺤﻨﻲ إﯾﺎھﺎ ﺑﺎﻹﺿﺎﻓﺔ إﻟﻰ ﺗﺴﺨﯿﺮه ﻛﺎﻣﻞ اﻹﻣﻜﺎﻧﯿﺎت اﻟﺘﻲ اﺣﺘﺠﺖ إﻟﯿﮭﺎ إﺿﺎﻓﺔ إﻟﻰ ﺗﻮﻓﯿﺮه اﺣﺪث وﺳﺎﺋﻞ
اﻟﺒﺤﺚ اﻟﻌﻠﻤﻲ إﺿﺎﻓﺔ ﻟﻮﺳﺎﺋﻞ اﻟﺮاﺣﺔ داﺧﻞ اﻟﻤﺨﺒﺮ .ﻛﻤﺎ و أﺗﻮﺟﮫ ﺑﺸﻜﺮي ﻷﺳﺘﺎذي اﻟﻔﺎﺿﻞ اﻟﺪﻛﺘﻮر ﻛﺎش ﻣﺨﺘﺎر
اﻟﺬي ﻋﻠﻤﻨﻲ اﻟﻜﺜﯿﺮ و أﺟﺰل ﻟﻲ ﻣﻦ ﻋﻄﺎﺋﮫ اﻟﻮاﻓﺮ وﻣﻨﺤﻨﻲ ﻋﺰﯾﻤﺔ ﻓﻲ ﻟﺤﻈﺎت اﻹﺣﺒﺎط ﻣﻜﻨﺘﻨﻲ ﻣﻦ إﺗﻤﺎم ھﺬا
اﻟﻌﻤﻞ ﻛﻤﺎ و أرﺷﺪﻧﻲ ﻟﺘﻌﻠﻢ إﺗﻘﺎن اﻟﻌﻤﻞ وﻟﻦ اﻧﺴﻲ ﺻﺒﺮه ﻣﻌﻲ ﻛﻤﺎ واﺷﻜﺮه ﻋﻠﻰ ﻣﺸﺎرﻛﺘﮫ ﻓﻲ ﻣﻨﺎﻗﺸﺔ ھﺬه اﻟﺮﺳﺎﻟﺔ
.وﺷﻜﺮي اﻟﻤﺘﺠﺪد دوﻣﺎ ﻷﺳﺘﺎذي اﻟﺪﻛﺘﻮر ﻣﺪﻧﻲ وﻟﺪ ﻣﻌﻤﺮ اﻟﺬي أﻣﺪﻧﻲ ﺑﺎﻗﺘﺮاﺣﺎﺗﮫ اﻟﺘﻲ ﺳﺎﻋﺪﺗﻨﻲ ﻋﻠﻰ إﺗﻤﺎم اﻟﻌﻤﻞ
ﺑﺎﻹﺿﺎﻓﺔ ﻟﻤﺘﺎﺑﻌﺘﮫ اﻟﻤﺴﺘﻤﺮة ﻟﻲ أﺛﻨﺎء اﻟﻌﻤﻞ ﻛﻤﺎ واﺷﻜﺮه ﻋﻠﻰ ﻣ ﺸﺎرﻛﺘﮫ ﻓﻲ ﻣﻨﺎﻗﺸﺔ ھﺬه اﻟﺮﺳﺎﻟﺔ .وﺧﺎﻟﺺ اﻟﺸﻜﺮ
واﻟﻌﺮﻓﺎن ﻷﺳﺘﺎذي ﺳﻮﯾﺪاﻧﻲ ﺳﻌﯿﺪ ﻋﻠﻰ ﻛﻞ ﻣﺎ ﻣﻨﺤﮫ ﻟﻲ ﻣﻦ وﻗﺖ وﺟﮭﺪ ﻟﻤﺴﺎﻋﺪﺗﻲ ﻓﻲ ﺗﻮﻓﯿﺮ اﻟﻮﺳﺎﺋﻞ اﻟﺘﻲ اﺣﺘﺠﺖ
ﻟﮭﺎ إﺿﺎﻓﺔ إﻟﻰ ﺗﺸﺠﯿﻌﮫ اﻟﻤﺴﺘﻤﺮ ﻟﻲ .ﻛﻤﺎ وأﺗﻮﺟﮫ ﺑﺸﻜﺮي ﻟﻠﺒﺮوﻓﺴﻮر ﺗﺮﺑﺶ ﻣﻜﻲ ﻟﺘﺸﺠﯿﻌﮫ اﻟﻤﺴﺘﻤﺮ ﻟﻲ
وﻣﺸﺎرﻛﺘﮫ ﻓﻲ ﻣﻨﺎﻗﺸﺔ ھﺬه اﻟﺮﺳﺎﻟﺔ.ﻛﻤﺎ وأﺗﻮﺟﮫ ﺑﺸﻜﺮي ﻟﻸﺳﺘﺎذ اﻟﺪﻛﺘﻮر ﻟﻮﻛﯿﻞ ﻟﻤﺸﺎرﻛﺘﮫ ﻓﻲ ﻣﻨﺎﻗﺸﺔ ھﺬه اﻟﺮﺳﺎﻟﺔ.
وﻛﻞ اﻟﺸﻜﺮ ﻟﻸﺳﺘﺎذ اﻟﺒﺮوﻓﺴﻮر ﺑﻦ راﺷﺪ ﻧﺼﺮاﻟﺪﯾﻦ و ﻟﻸﺳﺘﺎذ اﻟﺪﻛﺘﻮر ﻗﺎدري ﻣﺤﻤﺪ وﻛﻞ ﻣﻦ اﻷﺳﺘﺎذة :
ﺑﺮوﻓﺴﻮر ﺑﻠﻤﻜﻲ و د ﺑﻮﻏﺎﻧﻤﻲ و د ﺑﻦ ﺧﺪة و د ﺣﻤﺎدة و د ﺑﻠﻌﺠﯿﻦ و د رﯾﻤﺎ و ﻛﻞ أﺳﺎﺗﺬﺗﻲ اﻟﺬﯾﻦ ﻛﺎﻧﻮا ﻋﻮﻧﺎ
وﻧﺒﺮاﺳﺎ ﻟﻲ .
وﺷﻜﺮي ﻟﺰﻣﻼﺋﻲ ﻓﻲ ﻣﺨﺒﺮ اﻹﺷﺎرة واﻟﺼﻮر :ﻗﺎدري و أوﻋﺎﻣﺮي وﺑﺮﯾﺰﯾﻨﻲ وﺑﻦ ﻛﺮﻧﻮ و ﻣﻌﺰوز و ﺟﻮب و
ﺑﻮﻣﺪﯾﻦ و ﻣﺎش و دﺣﻤﺎﻧﻲ و ﯾﺤﯿﺎوي وﺑﻠﻮدﻧﯿﻦ و ﺣﻨﻔﻲ و اﯾﺖ درﻧﺎ و ﺑﻦ راﺑﺢ و ﻟﺪاز وﻛﻞ اﻟﺰﻣﻼء اﻷﻓﺎﺿﻞ .
واﺷﻜﺮ ﻣﺼﻠﺤﺔ اﻷﻣﻦ ﺑﺠﺎﻣﻌﺔ اﻟﻌﻠﻮم واﻟﺘﻜﻨﻮﻟﻮﺟﯿﺎ ﻟﻤﺴﺎﻋﺪﺗﮭﺎ ﻓﻲ ﺗﺴﮭﯿﻞ اﻟﻌﻤﻞ داﺧﻞ اﻟﺤﺮم اﻟﺠﺎﻣﻌﻲ.
ﻛﻤﺎ واﺷﻜﺮ أﺻﺪﻗﺎﺋﻲ اﻟﺬﯾﻦ ﺳﺎﻧﺪوﻧﻲ :ﺑﮭﺎء اﻟﺒﺸﯿﺘﻲ و ﺳﻌﯿﺪ أوﺳﻠﯿﻢ وﻣﺎﻟﻚ وﻣﺤﺮز و اﺑﻮھﻮﻟﻲ و اﻟﺰﯾﻨﻲ و ﻗﺸﻄﺔ
وﻋﺎدل وﻛﻞ أﺻﺪﻗﺎﺋﻲ اﻟﻤﻤﯿﺰﯾﻦ ﺣﻘﺎ .
أﻣﺎ أو ﻟﺌﻚ اﻟﺬﯾﻦ ﻟﻢ ﯾﻨﺘﻈﺮوا ﯾﻮﻣﺎ ﻣﻨﻲ ﻛﻠﻤﺔ ﺷﻜﺮ ،ﻓﺄﻗﻮل ﻟﮭﻢ :أﺗﻤﻨﻰ أن ﺗﻜﻮﻧﻮا ﻓﺨﻮﯾﻦ ﺣﻘﺎ ﺑﻲ وﻋﻠﻰ وﺟﮫ
اﻟﺨﺼﻮص أﺑﻲ و أﻣﻲ اﻟﺬﯾﻦ اﻗﺒﻞ اﻷرض ﺗﺤﺖ ﻗﺪﻣﯿﮭﻤﺎ ،و إﺧﻮاﻧﻲ ﻋﻤﺮ و إﺑﺮاھﯿﻢ واﺣﻤﺪ وﻓﺘﺤﻲ واﻟﻌﺰﯾﺰة ﻋﻠﻰ
ﻗﻠﺒﻲ آﯾﺔ .وﻣﺮﯾﻢ اﻟﺘﻲ ﻟﻦ ﺗﺴﺘﻄﯿﻊ ﻛﻠﻤﺎﺗﻲ إﯾﻔﺎﺋﮭﺎ ﺣﻘﮭﺎ ﻋﻠﻰ ﻛﻞ ﻣﺎ ﺑﺬﻟﺘﮫ ﻣﻦ اﺟﻠﻲ ﻣﻦ اﺟﻞ إﺗﻤﺎم رﺳﺎﻟﺔ اﻟﻤﺎﺟﺴﺘﯿﺮ.
ii
Abréviations
iii
VLIW Very Long Instruction Word
VPBE Video Processing Back-End
VPCTL Video Port Control Register
VPFE Video Processing Front-End
VPSS Video Processing Subsystem
ZNCC Zero mean Normalized Cross Correlation
ZSAD Zero mean Sum of Absolute Differences
ZSSD Zero mean Sum of Squared Differences
iv
Notations
Repère
Repère dans lequel Etiquetage temporel de destination
l'entité est exprimée
t
Mr R
Identifiant de l'image
point 3-D (majuscule) Repère Matrice de
point 2-D (minuscule) (dans le cas de la stéréo)
d'origine transformation
v
Tables des matières
Dédicace .......................................................................................................................... i
Remerciements .............................................................................................................. ii
Abréviations.................................................................................................................. iii
Notations ........................................................................................................................ v
Chapitre 1
Chapitre 3
Bibliographie ............................................................................................................... 77
Annexe A ...................................................................................................................... 80
Annexe B ..................................................................................................................... 82
vii
Figure B.6: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=40 ±
2 Km/h). .............................................................................................................. 86
Figure B.7: Distance mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=40 ± 2 Km/h). ............................................................................................ 87
Figure B.8: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=40 ± 2 Km/h). ............................................................................................ 87
Figure B.9: Vitesse en fonction de la distance (h=1.28 m, v=60 ± 3 Km/h). ..... 88
Figure B.10: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=60
± 3 Km/h). ........................................................................................................... 88
Figure B.11: Distance mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=60 ± 3 Km/h). ............................................................................................ 89
Figure B.12: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=60 ± 3 Km/h). ............................................................................................ 89
Figure B.13: Vitesse en fonction de la distance (h=1.28 m, v=80 ± 4 Km/h). ... 90
Figure B.14: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=80
± 4 Km/h). ........................................................................................................... 90
Figure B.15: Distance mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=80 ± 4 Km/h). ............................................................................................ 91
Figure B.16: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=80 ± 4 Km/h). ............................................................................................ 91
Figure B.17: Vitesse en fonction de la distance (h=1.28 m, v=100 ± 5 Km/h). . 92
Figure B.18: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=100
± 5 Km/h). ........................................................................................................... 92
Figure B.19: Distance mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=100 ± 5 Km/h). .......................................................................................... 93
Figure B.20: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28
m, v=100 ± 5 Km/h). .......................................................................................... 93
Figure B.21: Vitesse en fonction de la distance (h=2.2 m, v=40 ± 2 Km/h). .... 94
Figure B.22: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=40 ±
2 Km/h). .............................................................................................................. 94
Figure B.23: Distance mesurée en fonction du numéro du frame (temps) (h=2.2
m, v=40 ± 2 Km/h). ............................................................................................ 95
Figure B.24: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2
m, v=40 ± 2 Km/h). ............................................................................................ 95
Figure B.25: Vitesse en fonction de la distance (h=2.2 m, v=80 ± 4 Km/h). .... 96
viii
Figure B.26: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=80 ±
4 Km/h). .............................................................................................................. 96
Figure B.27: Distance mesurée en fonction du numéro du frame (temps) (h=2.2
m, v=80 ± 4 Km/h). ............................................................................................ 97
Figure B.28: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2
m, v=80 ± 4 Km/h). ............................................................................................ 97
Figure B.29: Vitesse en fonction de la distance (h=2.2 m, v=110 ± 5 Km/h). .. 98
Figure B.30: Distance mesurée en fonction du numéro du frame (temps) (h=2.2
m, v=110 ± 5 Km/h). .......................................................................................... 98
Figure B. 31: Vitesse en fonction de la distance (h=1.31 m, v=20 ± 2 Km/h, Ф
=10 °). ................................................................................................................. 99
Figure B.32: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=20
± 2 Km/h, Ф =10 °). ............................................................................................ 99
Figure B.33: Distance mesurée en fonction du numéro du frame (temps) (h=1.31
m, v=20 ± 2 Km/h, Ф =10 °). ........................................................................... 100
Figure B.34: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31
m, v=20 ± 2 Km/h, Ф =10 °). ........................................................................... 100
Figure B.35: Vitesse en fonction de la distance (h=1.31 m, v=50 ± 2 Km/h, Ф
=10 °). ............................................................................................................... 101
Figure B.36: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=50
± 2 Km/h, Ф =10 °). .......................................................................................... 101
Figure B.37: Distance mesurée en fonction du numéro du frame (temps) (h=1.31
m, v=50 ± 2 Km/h, Ф =10 °). ........................................................................... 102
Figure B.38: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31
m, v=50 ± 2 Km/h, Ф =10 °). ........................................................................... 102
Figure B.39: Vitesse en fonction de la distance par stéréovision (v=20±2
Km/h) . .............................................................................................................. 103
Figure B.40: Distance mesurée en fonction du numéro du frame (temps) par
stéréovision (v=20±2 Km/h). ............................................................................ 103
Figure B.41: Vitesse mesurée en fonction du numéro du frame (temps) par
stéréovision (v=20±2 Km/h). ............................................................................ 104
Figure B.42: Vitesse en fonction de la distance par stéréovision (v=50±2
Km/h). ............................................................................................................... 104
Figure B.43: Distance mesurée en fonction du numéro du frame (temps) par
stéréovision (v=50±2 Km/h). ............................................................................ 105
ix
Figure B.44: Vitesse mesurée en fonction du numéro du frame (temps) par
stéréovision (v=20±2 Km/h). ............................................................................ 105
Figure B.45: Implémentation du l’algorithme de détection. ............................ 106
Figure B.46: Implémentation du l’algorithme du Sobel. .................................. 107
Figure B.47: Mesure de distance d’un piéton éloigné. .................................... 107
Figure B.48: Mesure de distance d’un piéton proche. .................................... 108
x
Liste des tableaux
xi
Introduction générale
L’objectif majeur de cette thèse est la mesure de distance et vitesse d’un objet
mobile par un système de vision passif. L’utilisation d’un tel système comporte de
nombreux aspects, allant du calibrage aux techniques de suivi. Pour des raisons
pratiques évidentes, nous avons scindé le système en une succession de processus.
Ainsi découpé, le processus de détection et de suivi des cibles comporte les aspects
suivants :
1. Le calibrage,
2. La mise en correspondance stéréoscopique,
3. La mesure de distance et vitesse des obstacles ou des cibles,
4. Implémentation sur la carte DSP (DM6437 EVM).
1
• Chapitre 2 : Mise en correspondance stéréoscopique
La mise en correspondance stéréoscopique, aussi appelée appariement, est le
processus qui fourni, pour chaque point d’une image de la paire, son correspondant
dans l’autre image. C’est une étape clef du processus de suivi. En première partie du
chapitre, nous présentons le principe général d’appariement. En deuxième partie, nous
verrons les contraintes liées à ce processus.
2
Chapitre 1
Modélisation et Calibration d’un banc stéréoscopique
1.1 Introduction........................................................................................................... 3
1.1 Introduction
Dans un processus de vision, il est utile de connaitre la physique de l’instrument qui
fournit les données de base. Cette connaissance permet en particulier de calculer la
position exacte des éléments de la scène à partir d’une image. La calibration consiste à
obtenir les paramètres du modèle de la caméra. Calibrer une caméra consiste à
déterminer ses paramètres intrinsèques et sa position et orientation par rapport au
référentiel du monde. Calibrer un banc de stéréovision, constitué de deux caméras,
consiste à déterminer les paramètres intrinsèques de chacune des caméras, et la
position et orientation relative de ces deux capteurs. Ces paramètres du calibrage sont
nécessaires pour calculer, par triangulation, les coordonnées tridimensionnelles d’un
point correspondant à des pixels appariés dans les deux images.
Le modèle sténopé est séparé en une partie intrinsèque (interne à la caméra) et une
partie extrinsèque (externe à la caméra). Dans la partie intrinsèque nous développons
la formulation de la fonction de projection, et aussi de distorsion. La pose (position
et orientation) de l’appareil de prise de vue modélisée par la partie extrinsèque du
modèle sténopé.
3
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
𝑓𝑓 0 0 0
𝑚𝑚𝑟𝑟 ~ �0 𝑓𝑓 0 0� 𝑀𝑀 (1.2)
0 0 1 0
4
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
𝑘𝑘𝑥𝑥 0 𝑐𝑐𝑥𝑥
𝑚𝑚 ~ � 0 𝑘𝑘𝑦𝑦 𝑐𝑐𝑦𝑦 � 𝑚𝑚𝑟𝑟 (1.3)
0 0 1
5
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
où (x, y) sont les coordonnées sans distorsion et (x d , y d ) sont les coordonnées avec
distorsion (le point réellement observé). Comme l’indique les équations 1.5 et 1.6,
l’erreur de positionnement dépend de la position du point. Les défauts les plus
fréquemment rencontrés avec des objectifs standards sont la distorsion radiale, la
distorsion de décentrage, et la distorsion prismatique [WCH92] comme le montre la
figure (1.2). Le plus souvent seule la distorsion radiale est traitée [Tsa87, Bey92,
Zha00]. Ce type de distorsion provient essentiellement d’imperfections dans la
courbure de la lentille.
Les fonctions de distorsion radiale sont approximées par les fonctions polynomiales
δx et δy. Elles s’écrivent comme suit :
∞
6
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
Quelle que soit la transformation, elle peut toujours être décomposée en une
rotation suivie d’une translation figure (1.3). L’ordre dans lequel sont appliquées ces
deux opérations est très important car l’opération n’est pas commutative. La fonction
de rotation est notée R et la fonction de translation est notée t. Un point initialement
exprimé dans le repère R W est converti dans le système de coordonnées C par la
transformation suivante :
𝑤𝑤
𝑀𝑀 = 𝑤𝑤𝐶𝐶 𝑅𝑅 𝐶𝐶 𝑀𝑀 + 𝑤𝑤𝐶𝐶 𝑡𝑡 (1.9)
où t est un vecteur à trois composantes, et R est une matrice de taille 3*3 de la forme
suivante :
7
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
𝑥𝑥 𝛼𝛼𝑥𝑥 0 𝑐𝑐𝑥𝑥 𝑋𝑋
0 [𝑅𝑅] [𝑡𝑡] 𝑌𝑌
�𝑦𝑦� = � 0 𝛼𝛼𝑦𝑦 𝑐𝑐𝑦𝑦 0� � 𝑇𝑇 �� � (1.12)
[0 ] 1 𝑍𝑍
1 0 0 1 0
1
Ceci nous permet donc de définir une matrice de projection 3×4 d’un point de
l’espace Euclidien 3D de la scène, exprimé dans le repère du monde, en un point de
l’image, exprimé dans le repère 2D.
8
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
géométrie dans l’espace euclidien est connue avec une bonne précision. Cette
méthode permet d’aboutir à une calibration très fine. La mire de calibration se
compose généralement de deux ou trois plans orthogonaux entre eux,
supportant un ensemble de points facilement et précisément repérables. Une
alternative consiste à utiliser un même plan qu’on déplace d’une façon connue
avec précision entre chaque prise de vue [Tsa.87].
• La calibration hybride : La technique proposée dans cette catégorie nécessite
l’utilisation d’une mire plane dont les coordonnées bidimensionnelles de
certain points caractéristiques sont connues, basée sur les homographies
définissant les transformations entre les plans de la mire (dans ses différentes
positions successives) et le plan de la caméra (ou des caméras) à calibrer
[Zha.00]. La caméra ou la mire peuvent être déplacées et il n’est pas nécessaire
de connaître à priori les déplacements relatifs effectués. Cette approche se situe
entre la calibration photogramétrique et l’auto calibration puisque la
connaissance préalable de certaines informations dimensionnelles relatives à la
mire est requise et que cette méthode utilise par ailleurs des propriétés de la
géométrie projective elles-aussi exploitées par l’auto calibration.
• L’auto calibration : Les techniques associées à cette catégorie ne nécessitent
l’utilisation d’aucune mire de calibration, elle se base essentiellement sur la
géométrie épipolaire. L’idée consiste à déplacer la caméra dans une scène
statique. La rigidité de la scène fournit généralement deux contraintes [Luo.92]
sur les paramètres intrinsèques de la caméra. Si les images sont prises avec la
même caméra (dont on suppose les paramètres intrinsèques fixes), la mise en
correspondance entre trois images est suffisante pour extraire les paramètres
intrinsèques et extrinsèques [Luo.97, Har.94]. Malgré la flexibilité de cette
approche, celle-ci manque encore de maturité. Vu le nombre de paramètres à
estimer, on n’obtient pas toujours des résultats fiables [Bou.98].
Les calibrations photogramétrique et hybride présentent de meilleurs résultats en terme
de robustesse comparativement aux techniques d’auto calibration. En effet, les
techniques d’auto calibration proposées jusqu’à présent sont adaptées aux
problématiques des systèmes de vision actifs dont les paramètres des caméras varient
9
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
continuellement mais ne conviennent pas aux systèmes qui exigent une précision
importante des informations métriques (la majorité de ces techniques supposent
l’absence de distorsions optiques ou supposent connaître les coordonnées de la
projection du centre optique).
Pour les raisons citées ci-dessus, nous nous sommes plutôt orientés vers la
calibration hybride puisque cette technique, moins précise que la calibration
photogramétrique, fournit néanmoins un compromis tout à fait valable entre la
précision et la flexibilité, répondant ainsi aux exigences que nous nous étions fixées.
Nous considérons n images d’une mire plane composée de p points acquises par
une caméra. La figure (1.4) présente une séquence de 9 images d’une mire de
calibration composée de 156 points. Les points de la mire peuvent être les coins des
carrés qui composent le damier comme le montre la figure (1.5). Une fois les points de
mire extraits, l’estimation des paramètres à minimiser est généralement la somme des
erreurs quadratiques entre les coordonnées des points extraits dans les images et les
coordonnées calculées par le modèle de caméra pour chaque point correspondant de la
mire.
10
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
11
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
12
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
13
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
où [𝑡𝑡 ] × est la matrice antisymétrique définie par [𝑡𝑡 ] × x = t x x quel que soit le
vecteur x. La matrice F est définie à un facteur d’échelle près puisque l’équation
(1.15) est toujours valable quand on multiplie F lr par un facteur quelconque.
14
Chapitre 1 Modélisation et Calibration d’un banc stéréoscopique
1.6 Conclusion
Nous avons présenté dans ce chapitre la modélisation d’une caméra, ensuite, nous
avons vu les méthodes de calibrage qui fournies par la littérature, et parmi ces
méthodes, nous avons choisi la calibration hybride qui s’utilise une mire plane,
puisque, elle fournit néanmoins un compromis tout à fait valable entre la précision et
la flexibilité, puis, nous avons vu comment étendre ce modèle au cas stéréoscopique.
15
Chapitre 2
La mise en correspondance stéréoscopique
2.1 Introduction......................................................................................................... 16
2.2.1 Le principe................................................................................................... 16
2.3 Contraintes pour la mise en correspondance ...................................................... 19
2.1 Introduction
A B
16
Chapitre 2 La mise en correspondance stéréoscopique
17
Chapitre 2 La mise en correspondance stéréoscopique
Avec :
• F : fenêtre de corrélation,
• I g (x,y) et I d (x,y) : les intensités des images gauche et droite,
• d : le décalage horizontal sur x du pixel dans l’image droite appelé disparité.
• C(x,y,d) : valeur du critère au pixel (x,y) pour une disparité d.
Ces critères numériques, en particulier ZNCC, sont longs à calculer. Les critères SAD
ou ZSAD sont les plus simples, mais généralement, ils s’avèrent peu robuste.
18
Chapitre 2 La mise en correspondance stéréoscopique
Une contrainte est une propriété liée à une correspondance [Cha.05] [Hor et al.]
[Rui.05] qui découle d’hypothèses faites sur:
• La géométrie du capteur : La principale contrainte utilisée est la contrainte
épipolaire. on appelle cette contrainte une contrainte géométrique.
• La géométrie de la scène : Il s’agit des contraintes d’unicité, d’ordre et de
symétrie.
Si deux pixels différents ont le même correspondant, alors la contrainte d’unicité n’est
pas vérifiée, cette contrainte peut être violée quand un plan de la scène si très incliné
par rapport à l’une des deux caméras, l’effet de raccourcissement peut apparaitre et
ainsi tous les pixels n’ont pas forcément un correspondant unique (voir La figure 2.2
b).
19
Chapitre 2 La mise en correspondance stéréoscopique
. . . . . . . .
𝒊𝒊,𝒋𝒋 𝒊𝒊,𝒋𝒋
. . . . . . . .
𝑷𝑷𝒈𝒈 𝟏𝟏 𝑷𝑷𝒈𝒈 𝟐𝟐 𝑷𝑷𝒊𝒊,𝒗𝒗
𝒅𝒅
Image gauche Image droite
(a)
P1
𝒊𝒊,𝒋𝒋
𝑷𝑷𝒈𝒈 𝟏𝟏
(b)
Og Od
Figure 2.2 : Contrainte d’unicité : Dans la figure (a), nous pouvons voir les
𝒊𝒊,𝒋𝒋 𝒊𝒊,𝒋𝒋
correspondances entre 𝑷𝑷𝒈𝒈 𝟏𝟏 et 𝑷𝑷𝒊𝒊,𝒗𝒗
𝒅𝒅 et entre 𝑷𝑷𝒈𝒈 𝟐𝟐 et 𝑷𝑷𝒊𝒊,𝒗𝒗
𝒅𝒅 qui ne respectent pas la
contrainte d’unicité. En (b): tous les points qui se trouvent sur le segment de droite
[P 1 P 2 ] se projettent sur le pixel 𝑷𝑷𝒊𝒊,𝒗𝒗
𝒅𝒅 dans l’image droite.
Lorsque deux points se trouvent sur la surface d’un objet peu incliné, l’ordre de leurs
projections est le même dans les deux images.
Si l’objet est fortement incliné et si l’objet est opaque, les projections ne sont pas vues
simultanément dans les deux images.
En revanche, si l’objet est transparent, l’ordre des projections n’est pas
respectés.
20
Chapitre 2 La mise en correspondance stéréoscopique
. . . . . . . .
𝒊𝒊,𝒋𝒋 𝒊𝒊,𝒋𝒋
. . . . . . . .
𝑷𝑷𝒈𝒈 𝟏𝟏 𝑷𝑷𝒈𝒈 𝟐𝟐 𝑷𝑷𝒊𝒊,𝒗𝒗
𝒅𝒅
Image gauche Image droite
. . . . . . . . . . . . . . . .
(a)
P1
𝒊𝒊,𝒋𝒋
𝑷𝑷𝒈𝒈 𝟏𝟏
........ ........
𝒊𝒊,𝒗𝒗𝟏𝟏 𝒊𝒊,𝒗𝒗𝟐𝟐
𝒊𝒊,𝒋𝒋
𝑷𝑷𝒈𝒈 𝟐𝟐 𝑷𝑷𝒅𝒅 𝑷𝑷𝒅𝒅
Og (b) Od
Figure 2.3 : Contrainte d’ordre : En (a), nous pouvons voir deux correspondances qui
la respectent la contrainte d’ordre et deux correspondances qui ne la respectent pas En
(b), une vue de dessus d’un capteur binoculaire en configuration parallèle et d’une
scène, montre un exemple de violation de la contrainte d’ordre (le plan transparent
vertical passant par les points P 1 et P 2 , représenté et en tirets, est fortement incliné par
rapport au plan des images).
Un des affinements des résultats d’une mise en correspondance les plus employés
est la vérification bidirectionnelle (figure 2.4.a), qui met en œuvre la contrainte de
symétrie. Cette contrainte binaire s’écrit :
21
Chapitre 2 La mise en correspondance stéréoscopique
. . . . . . . .
𝒊𝒊,𝒋𝒋
. . . . . . . .
𝑷𝑷𝒈𝒈 𝟏𝟏 𝑷𝑷𝒊𝒊,𝒗𝒗
𝒅𝒅
Image droite
Image gauche
. . . . . . . . . . . . . . . .
𝒊𝒊,𝒋𝒋
𝑷𝑷𝒈𝒈 𝟐𝟐
(a)
. . . . . . . . . . . . . . . .
Image droite
Image gauche
. . . . . . . . 𝒊𝒊,𝒋𝒋
. . . . . . . .
𝑷𝑷𝒈𝒈 𝟐𝟐
(b)
22
Chapitre 2 La mise en correspondance stéréoscopique
2.4 Conclusion
Nous avons vu dans ce chapitre le processus de la mise en correspondance
(appariement), l’idée de base consiste à apparier une primitive en la comparant à ses
correspondants possibles, de telle sorte que le couple qui se ressemble le plus soit
retenu comme un couple de primitives homologues. Pour ce faire, nous avons décri
dans la première partie, le principe d’appariement basé sur des méthodes corrélatives,
qui utilisent une fenêtre de corrélation, ensuite, nous avons détaillé les critères ou bien
les contraintes de ressemblances, pour décider qu’une couple de primitives gauche /
droite est correcte ou pas.
23
Chapitre 2 La mise en correspondance stéréoscopique
Chapitre 3
Mesure de distance et vitesse d’un objet mobile
3.1 Introduction......................................................................................................... 24
3.1 Introduction
L’application automobile qui nous intéresse, à savoir le suivi du véhicule,
nécessite la mise en place d’un processus spécifique à la mesure de vitesse (voir la
figure 3.1). Ce processus requiert des informations synthétiques sur le véhicule,
telle que leur position (distance des véhicules cibles) et leur taille. Ce traitement
intermédiaire s’appelle l’« extraction des objets mobiles » ou « détection des
objets mobiles». Il permet de localiser la cible qui sera ensuite traitée par le
processus de mesure de distance et vitesse.
Méthode du Mise en
champ de vision correspondance
24
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
Image courante : Ii
25
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
Le champ de vision donne le volume de la scène qui peut être observé par la
caméra [ZAY.05]. Il se calcule en fonction des dimensions du capteur (horizontale et
verticale), de la distance focale de l’objectif et des angles de vue. L’exploitation des
notions de champ de vision s’effectue comme suit:
Mesure de distance
On veut trouver la distance D (Tc, T R ) à une certaine taille d’un objet sous un
angle θ par une méthode trigonométrique simple, et en utilisant les formules suivantes
(voir figure 3.3) :
𝑇𝑇𝐶𝐶 𝑇𝑇𝑅𝑅
tan 𝜃𝜃 = =
𝑓𝑓 𝐷𝐷
𝑇𝑇𝑅𝑅
𝐷𝐷�𝑇𝑇𝐶𝐶 , 𝑇𝑇𝑅𝑅 � = . 𝑓𝑓 (3.1)
𝑇𝑇𝐶𝐶
26
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
θ : angle de vue
Objet
C
f : la distance focale
𝑇𝑇𝑅𝑅
𝐷𝐷(𝑇𝑇𝐼𝐼 , 𝑇𝑇𝑅𝑅 ) = . 𝑓𝑓
𝑇𝑇𝐼𝐼 (3.2)
27
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
l’Objet
f : la distance focale
Mesure de vitesse
Nous employons le même principe décrit dans la section (3.2) de détection des
objets mobiles, qui se base sur le calcul de différence entre les frames de vidéo «inter-
frame ».
L’exploitation de la vitesse s’effectue comme suit :
1. Calculer la distance de l’objet entre frame (i) et frame (i+1) pour obtenir la
distance Δd ;
2. Calculer la différence entre frame (i) et frame (i+1) pour obtenir le temps Δt.
La relation correspondante est alors :
�𝐷𝐷𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓 (𝑖𝑖) − 𝐷𝐷𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓 (𝑖𝑖+1) �
𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣𝑣 = (3.3)
�𝑡𝑡𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓 (𝑖𝑖) − 𝑡𝑡𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓𝑓 (𝑖𝑖+1) �
28
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
3.3.1.2 Résultats
Les résultats présentés dans cette section ont été obtenus sur des séquences
réalisées à l’aide de caméra Sony Miniature 1/3" (U2S-C911), et une carte
d’acquisition Easy TV MPEG à une entrée et une sortie RCA. La caméra a une
distance focale de 8 mm et de 0.8 Lux, avec une résolution horizontale de 420
TVL. Au cours de notre travail, nous avons utilisé Matlab (7.5b) comme langage
de programmation.
50 51,7651
45 45,5854
40 40,3170
35 35,8390
30 30,4315
25 24,9383
20 20,3085
15 15,2188
10 10,5412
5 5,0002
D’après les résultats repris dans le tableau (3.1), on déduit que l’intervalle de la
distance, qu’on peut calculer par cette méthode c’est : [5m- 50m].
29
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
[18,94 - 50]
20 [16 – 23,5]
Les figures (3.5) et (3.6) représentent quelques résultats de mesure des distances
proche et éloignée d’un véhicule détecté par la méthode de détection décrite dans la
section (3.2). Nous trouvons plus des détails dans l’annexe B.
30
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
31
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
(a)
(b)
32
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
Caméra 2 Caméra 1
N=0
Séquence 2 Séquence 1
Oui
Le suivi N=1
Non
La mise en correspondance Détection
(Matching)
Oui
Calcul de la
zone d’intérêt
Calcul de la
distance
Sobel dans la
zone d’intérêt
Calcul de la
vitesse
Détection des coins par
détecteur de Harris
N=1
33
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
34
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
35
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
Figure 3.12 : Le suivi du pixel par corrélation (la colonne gauche), la mise en
correspondance (colonne gauche-droite)
36
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
37
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
Caméra gauche
− Le point M exprimé dans le repère O g par les coordonnées (X g , Y g , Z g ).
− Le projeté du point M exprimé dans le plan d’image par les
coordonnées (x g , z g ):
𝑋𝑋𝑔𝑔 𝑥𝑥𝑔𝑔
𝑥𝑥𝑔𝑔 = 𝑓𝑓 ⇒ 𝑋𝑋𝑑𝑑 = 𝑍𝑍𝑔𝑔 (3.5)
𝑍𝑍𝑔𝑔 𝑓𝑓
En générale :
− Les deux axes optiques de caméras gauche et droite sont parallèles, donc :
𝑥𝑥𝑔𝑔 𝐷𝐷 𝑥𝑥𝑑𝑑 𝐷𝐷
− 𝐵𝐵 = (3.7)
𝑓𝑓 𝑓𝑓
dont :
𝐵𝐵𝐵𝐵
𝑫𝑫 = 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎: 𝒅𝒅 = 𝑥𝑥𝑔𝑔 − 𝑥𝑥𝑑𝑑 (3.8)
𝑑𝑑
38
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
3.3.2.2 Résultats
Les résultats présentés ici ont été obtenus sur des séquences réalisées à
l’aide de deux caméras HR Sony (PR- 675), équipé d’un capteur CCD de taille
1/3" de résolution 420 TVL et de 0.2 Lux, et d’un objectif de taille 43.7×35.4
mm, dont la distance focale varie de 3mm à 8 mm, et l’angle de vue peut aussi
varier de 35° à 93°. Les caméras sont placées à 10 cm l’une de l’autre. Les
distorsions sont corrigées par la calibration décrite dans le 1er chapitre.
Dans ce qui suit, nous allons présenter quelques résultats issus des
expériences effectuées avec le système stéréoscopique (figure 3.14).
39
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
Figure 3.15 : Mesure d’une distance proche d’un véhicule détecté par stéréovision.
Figure 3.16 : Mesure d’une distance éloignée d’un véhicule détecté par stéréovision.
40
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
(a)
(b)
Figure 3.17 : Mesure de distance et vitesse par le processus stéréoscopique.
41
Chapitre 3 Mesure de distance et vitesse d’un objet mobile
3.4 Conclusion
Les résultats que nous avons obtenus montrent qu’il est parfaitement possible
d’estimer la distance et la vitesse d’un véhicule en mouvement grâce à des
caméras et un ordinateur standards.
Dans la première partie de ce chapitre, nous avons présenté une méthode de
détection d’objets mobiles, qui, en se basant sur le calcul de différence entre les
frames de vidéo, fournit la cible nécessaire au processus de mesure de distance et
vitesse.
Dans la seconde partie de ce chapitre, nous avons exposé une approche de la
mono-vision et d’autre de la stéréovision, la première applique le calcul du champ
de vision qui nécessite la connaissance au préalable de la taille de l’objet réelle et
son équivalant dans l’image. Nous avons aussi vu le système stéréoscopique,
l’utilisation du ce système comporte de nombreux aspects, allant de détection à la
technique de suivi par corrélation.
42
Chapitre 4
Implémentation sur la carte DSP DM4637 EVM
4.1 Introduction......................................................................................................... 48
4.1 Introduction
La plate-forme du processeur du signal numérique (DSP) de TMS320C6000™ fait
partie de la famille du DSP TMS320™. La génération du DSP TMS320C62x™ et la
génération du DSP TMS320C64x™ comportent les périphériques à virgule fixe dans
la plate-forme du DSP C6000™, et la génération du DSP TMS320C67x™ comporte
les périphériques à virgule flottante dans la plate-forme du DSP C6000. Les C62x™ et
les C64x™ DSPs sont code-compatibles. Chacune des trois générations du DSP utilise
l'architecture de VelociTI™, une architecture de haute performance, architecture
avancée d'instruction du mot très long (Very Long Instruction Word : VLIW), ceux
DSPs faisant à un excellent choix pour les applications multicanales et
multifonctionnelles. Le DSP TMS320C64x+™ est un perfectionnement du C64x DSP
avec un ensemble des fonctionnalités supplémentaires.
Avec une exécution jusqu'à 8000 millions d'instructions par seconde (MIPS) et
un compilateur C efficace, les DSPs TMS320C6000 (figure 4.1) donnent à des
architectes du système des possibilités illimitées pour différencier leurs produits. La
haute performance, la facilité d'utilisation, et l'évaluation accessible font à la
génération C6000 la solution idéale pour le multicanal.
49
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
50
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Les DSPs C64x et les C64x+ ont 32 bits, et un espace d'adresse octet- adressable.
La mémoire interne sur fragment (on-chip) est organisée en données séparées et des
espaces du programme. Quand la mémoire hors-fragment (off- chip) est utilisée, ces
espaces sont unifiés sur la plupart des périphériques à un espace d’une seule mémoire
via l'interface de la mémoire externe (EMIF).
Le DSP C64x a deux ports internes de 64-bits pour accéder à la mémoire de données
internes. Le DSP C64x a un seul port interne pour accéder à la mémoire du programme
interne, avec une instruction de fetch de 256 bits. Le DSP 64x+ a un port de lire
seulement de 256 bits pour accéder à la mémoire du programme interne et deux ports
de 256 bits (lire et écrire) pour accéder à la mémoire de données internes.
51
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Les composants de la voie de données pour la CPU sont montrés sur la figure (4.3).
Ces composants sont les suivants :
• Deux registres de fichiers d'usage général (A et B),
• Huit unités fonctionnelles (. L1. L2. S1. S2. M1. M2. D1, et. D2),
• Deux voies de données de charger-de la-mémoire (LD1 et LD2),
• Deux voies de données de stocker-dans la-mémoire (ST1 et ST2),
• Deux voies d'adresse de données (DA1 et DA2),
• Deux registres de fichiers de données du chemin croisé (1X et 2X).
4.1.3.4 Registres de fichiers d'usage général
52
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
53
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
L'EVM vient avec un plein complément des péréphiriques qui s’adaptent à une large
variété d'application du l’environnement. Les péréphiriques principaux sont les
suivants :
54
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Avec performance jusqu'à 5600 millions d'instructions par seconde (MIPS) à une
fréquence de base de 700 Mhz, le noyau de C64x+ offre des solutions aux défis de
programmation du DSP à rendement élevé. Le noyau du DSP possède la flexibilité
opérationnelle des contrôleurs à grande vitesse et les possibilités numériques des
processeurs cellulaires. Les huit unités fonctionnelles du processeur de noyau du DSP
C64x+ incluent des instructions pour accélérer l'exécution dans les applications vidéo
et image. Le noyau du DSP peut produire quatre 16 bits multiplication-accumulation
(MACs) par cycle pour un total de 2800 millions MACs par seconde (MMACS), ou
huit 8 bits MACs par cycle pour un total de 5600 MMACS.
55
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
données du niveau 1 (L1D) se compose d'un espace mémoire de 640 Kbit. Le niveau 2
mémoire /cache (L2) se compose d'un espace mémoire 1Mbit qui est partagé entre le
programme et l'espace de données. La mémoire L2 peut être configurée en tant que
mémoire tracée, cache, ou combinaisons des deux.
56
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
57
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
58
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
DM6437 EVM
59
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Le mode capture vidéo fonctionne dans un de neuf modes comme énuméré dans le
tableau 4.1. La sélection de TSI (transport stream interface) est faite par l’utilisation
de TSI bit dans le port vidéo registre du control (Video Port Control Register :
VPCTL). Le MODE bits est dans capture vidéo canal x registre du control (Video
Capture channel x Control register VCxCTL). Les Y/C et 16/20-bit modes de capture
brut peuvent seulement être choisis pour le canal A et seulement si le DCDIS bit dans
VPCTL mettant à 0.
Quand fonctionnant comme un canal de capture vidéo brute, aucun choix de données
ou interprétation de données n'est effectué. Le 16/20-bit brut du mode capture est
conçu pour accepter des données des convertisseurs A/D avec une résolution plus
grande que huit bits (utilisée, par exemple, dans l’imagerie médicale).
61
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
jusqu'à 80 Mhz.
8 bits ou 10 bits de
10-Bit Capture
données brutes au taux
0 011 brute
d’échantillonnage
jusqu'à 80 Mhz.
L'entrée-vidéo digital
est dans le YCbCr 4:2:
8-Bit Y/C
2 avec une résolution
0 100 Capture
de 8 bits et en parallèle
Y et Cb/Cr ont
multiplexé des canaux.
L'entrée-vidéo digital
est dans le YCbCr 4:2:
10-Bit Y/C 2 avec une résolution
0 101 Capture de 10 bits et en parallèle
Y et Cb/Cr ont
multiplexé des canaux.
16 bits de données
16-Bit Capture
brutes au taux
0 110 brute
d’échantillonnage
jusqu'à 80 Mhz.
20 bits de données
20-Bit Capture
brutes au taux
0 111 brute
d’échantillonnage
jusqu'à 80 Mhz.
8 bits TSI parallèle
1 010 TSI Capture capture au taux jusqu'à
30 Mhz.
001 10-Bit ITU-R sortie-vidéo digital est dans YCbCr 4:2:2 avec 10 bits de
BT.656 affichage résolution multiplexée dans le format d'ITU-R BT.656
010 8-Bit affichage brut 8-bit données de sortie
100 8-Bit Y/C affichage sortie-vidéo digital est dans le YCbCr 4:2: 2 avec une
résolution de 8 bits et en parallèle Y et Cb/Cr ont
multiplexé des canaux.
101 10-Bit Y/C sortie-vidéo digital est dans le YCbCr 4:2: 2 avec une
affichage résolution de 10 bits et en parallèle Y et Cb/Cr ont
multiplexé des canaux.
Le programme pilote du périphérique décrit ici est réellement une partie d'un mini-
pilote d'IOM. C'est-à-dire, il est mis en application comme couche inférieure d'un
modèle de programme pilote du périphérique de deux-couche. La couche supérieure
est le module de FVID (Frame Video driver), qui est un simple emballage sur la
classe pilote du DSP/BIOS GIO. Tandis que GIO fournit un ensemble indépendant et
générique d'APIs et de services pour une large variété de mini-pilotes, FVID fournit
des APIs adaptés aux besoins du client pour la capture et l'affichage de vidéo frame.
63
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Le FVID périphérique du pilote API diffère aux d'autres pilotes de manière qu'il
contrôle la propriété des buffers de données avec l'application. La plupart des pilotes
du périphérique du DSP/BIOS prévues l'application, pour commencer, ils ont le
control des buffers de données et passe l'adresse de ces buffers vers la bas au pilote de
périphérique pour des données proposées d'entrée ou de sortie. Le module FVID, la
capture vidéo et l'affichage des mini-pilotes que cela fonctionne par l'utilisation d’un
modèle inversé dans lequel le pilote du périphérique assume le control initial des
buffers de données. La motivation pour cette approche est que les systèmes vidéo ont
souvent une grande mémoire qui sont optimisés pour le transfert de données à grande
vitesse, plutôt qu'étant assigné du mémoire tas du système. Depuis la taille, l’endroit,
64
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
et les statuts de ces buffers sont placés dans le pilote lui-même, il semble raisonnable
que le pilote aurait le control global.
Des systèmes vidéo frame sont également caractérisés par le multi-buffering efficace
du frame des données. Le double buffering est employé de sorte que quand un buffer
est utilisé pour déplacer des données à ou du hardware d'affichage (et possédé donc par
le pilote), l'autre buffer (est possédé près) soit employé par l'application pour le rendu.
Les deux buffers peuvent alors être permutés pendant un synchro-frame et le processus
sera répété. Triple buffering est employé souvent pour permettre à l'application
d'obtenir un buffer du pilote sans devoir attendre un nouveau synchro-frame.
Une fois que le pilote est initialisé, l'application devra appeler FVID_alloc une fois au
début pour obtenir la propriété initiale du buffer. Après cela, des appels à
FVID_exchange peuvent être employés pour l’échange entre l'application et le pilote.
L'interface de FVID est complètement intégrée dans DSP/BIOS. Pour chaque FVID
canal crée, un objet séparé de synchronisation est initialisé. Les appels à assigner et
l'échange vidéo buffers peuvent être bloquants ou non- bloquants, selon la valeur du
dépassement de durée spécifique quand le canal a été créé.
65
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Figure 4.9: Zoomer dans le vue hardware : Voyage d’un frame [TI.aug.03].
Si le VENC est en mode entrelacé (standard TV mode sortie), des données différentes
sont lues pour chaque champ et le plein frame progressif est fourni à chaque even/odd
champ impair. Dans ce cas, les registres de taille de fenêtre sont programmés au
nombre de lignes dans chaque champ ; c'est-à-dire, le nombre de lignes de VENC
relève pour chaque VSYNC (champ) = 1/2 la taille d'affichage.
66
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Le mode champ (figure 4.11) suppose qu'un champ d'affichage est stocké dans la
DRAM et des lignes de données sont lues séquentiellement, commençant dès le début
d'adresse et incrémentant par l'offset à chaque ligne et la répétant pour chaque champ
(ou frame).
Si le VENC est en mode entrelacé (standard TV mode sortie), les mêmes données sont
lues deux fois pour chaque champ. Ces résultats à chaque ligne étant affichés deux
fois, une fois pour chaque champ ; c'est-à-dire, ligne doublée. Dans ce cas, les registres
de taille de fenêtre sont programmés au nombre de lignes dans chaque champ ; c'est-à-
dire, le nombre de lignes le VENC relève pour chaque VSYNC (champ) = 1/2 la taille
d'affichage. Alternativement, si des images vidéo entrelacées doivent être affichées, à
partir d'opération décodée vidéo, l'adresse de début peut être changée à chaque
VSYNC au ping-pong entre les deux champs vidéo actuelle et émettre les données
entrelacées au sortie d'affichage entrelacé.
Si le VENC est en mode progressif, alors le mode champ devrait être employé de sorte
que toutes les données soient lues de la DRAM progressivement de sorte que chaque
ligne soit montrée une fois par frame progressif. Dans ce cas, des registres de taille de
fenêtre sont programmés au nombre de lignes dans chaque frame progressif ; c'est-à-
67
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
dire, le nombre de lignes de VENC lu pour chaque VSYNC (frame) = taille d'affichage
pleine.
68
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
La fenêtre vidéo 0 est, donc, typiquement la toile sur laquelle le GUI est construit,
avec les autres fenêtres servant de stockage aux graphiques/recouvrements d'essai,
l'image-dans-image recouverte à l'intermédiaire de VIDWIN1, etc. Le format de
données primaire admis par les fenêtres vidéo est YUV 4:2:2 données intercalées
comme décrites ci-dessous. C'est le format de données de sortie par le VPFE et les
modules redimensionner (resizer). Typiquement, les décodeurs vidéo/image
produisent cette sortie et les encodeurs acceptent aussi bien ce format d'entrée.
Des données de fenêtre OSD sont toujours pressées dans des mots à 32 bits. À partir
du coin gauche supérieur de la fenêtre OSD, toutes les données seront pressées dans
des mots adjacents à 32 bits. La figure 4.12 montre le format des données de fenêtre de
données dans la SDRAM.
Gauche supérieur
P0 P1 P2 P3 P4 P5 P6 P7
La fenêtre OSD de données vidéo est dans le format YCbCr 4:2:2. D'autres
formats, par exemple, 4:2:0 et 4:4:4 formats de données intercalés ne sont pas
supportés. Noter que l'ordre des données Cb et Cr dépend de MODE.CS (chroma
swap). La figure (4.13) décrit le cas par défaut de l'ordre Cb/Cr.
Noter que à chaque ligne horizontale des données de fenêtre doit être un multiple de
32 octets, fenêtre de données vidéo doit contenir un multiple de 32 octets /2 octets
/Pixel = 16 Pixel par ligne horizontale.
69
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
70
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Caméra
Ecran LCD
DM6437 EVM
71
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Figure 4.16: Mesure de distance proche d’un véhicule à une vitesse = 20 Km/h.
72
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
Figure 4.17: Mesure de distance d’un véhicule éloignée à une vitesse = 20 Km/h.
73
Chapitre 4 Implémentation sur la carte DSP DM 6437 EVM
4.4 Conclusion
Dans la première partie de ce chapitre, nous avons présenté en détails la carte DSP
DM6437 EVM, qui est basée sur l'architecture de troisième génération de VLIW (Very
Long Instruction Word) de VelociTI™ développée par Texas Instruments (TI), faisant
à cette carte un excellent choix pour des applications numériques de médias.
La carte DSP DM6437 EVM donne des approches adaptables aux problèmes
classiques du traitement du signal. Ils supportent également les applications
complexes qui exigent souvent des opérations multiples d'être effectuées
simultanément.
Avec une performance de 4752 millions instructions par seconde (MIPS) à une
fréquence de 594 Mhz, Le noyau de cette carte DSP peut produire quatre 16 bits
multiplication-accumulation (MACs) par cycle pour un total de 2800 millions MACs
par seconde (MMACS), ou huit 8 bits MACs par cycle pour un total de 5600
MMACS.
74
Conclusions et perspectives
1. Conclusions
L’objectif de cette thèse était de construire un système permettant de mesurer
de manière précise, la distance et la vitesse d’un objet mobile par un système de
vision, appliqué dans l’environnement routier.
Pour la mesure par stéréovision, nous avons mis en œuvre une technique de
stéréo-corrélation couplant la stéréovision et l’appariement de point par
corrélation. La précision des mesures obtenues dépend à la fois de la qualité
du calibrage du banc de stéréovision, et de la précision d’appariement des
paires d’images stéréoscopiques.
75
scores de corrélation directement dans les images acquises par le banc
stéréoscopique.
2. Perspectives
Le travail exploratoire est plus ou moins abouti selon les fonctionnalités, et
pour certaines d’entre elles, nos travaux peuvent être améliorés.
Dans notre travail de future, nous nous intéressons au système embarqué dans
un véhicule, nous prendrons en considération les points suivants :
• L’auto calibration.
• La vidéo stabilisation.
76
Bibliographie
77
[Luo.92] Q.-T. Luong. Matrice Fondamentale et calibration Visuelle
sur l’Environnement Vers une plus grande autonomie des
systèmes robotiques. PhD thesis, Université de Paris-Sud,
Centre d’Orsay, Dec. 1992.
78
[TI.oct.08] Texas Instruments, TMS320C64x/C64x+ DSP, CPU and
Instruction Set. October 2008.
[Tsa.87] R.Y. Tsai. A versatile camera calibration technique for high-
accuracy 3D machine vision metrology using off-the-shelf tv
cameras and lenses. IEEE Journal of Robotics and
Automation, 3(4): 323-344, August 1987.
79
Annexe A
A.1. Le détecteur de Harris
1
𝜆𝜆 = �𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇(𝐴𝐴) ± �𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 2 (𝐴𝐴) − 4 𝐷𝐷𝐷𝐷𝐷𝐷 (𝐴𝐴)� (𝐴𝐴. 2)
2
80
Etant donné un seuil ξ (calculé généralement à partir de l’histogramme des
valeurs propres minimums pour chacun des pixels de l’image), si f (u,v) > ξ, on
peut conclure que le pixel de coordonnées (u v)T est vraisemblablement un coin.
Pour éviter de détecter plusieurs coins liés au coin réel, un candidat n’est
considéré comme tel que s’il est suffisamment loin des N coins déjà détectés, ce
qui se traduit par l’inégalité suivante :
∀𝑖𝑖 < 𝑁𝑁, ‖𝐶𝐶𝑖𝑖 (𝑥𝑥, 𝑦𝑦) − 𝐶𝐶𝑁𝑁 (𝑥𝑥, 𝑦𝑦)‖ ≥ 𝐷𝐷 (𝐴𝐴. 4)
D étant la distance euclidienne minimum qui doit séparer n’importe quelle paire
de coins.
81
Annexe B
= [7.1130 7.0615 ] mm
Distortion:
= 7.1130 mm
= 7.0615 mm
=[6.9462 6.9402 ] mm
82
Distortion:
= 6.9462 mm
= 6.9402 mm
Vecteur de Rotation:
Vecteur de Translation:
83
B.2 Les résultats de la méthode de mono-vision (champ de vision)
• Hauteur (h) de la caméra = 1 .28 m
• Vitesse réelle = 20 ± 2 Km/h
50
45
40
35
Vitesse [ Km/h ]
30
25
20
15
10
10 15 20 25 30 35 40
Distance [ M ]
45
40
35
Distance [ M ]
30
25
20
15
10
5
200 220 240 260 280 300 320
Pixels
Figure B.2: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=20 ± 2
Km/h).
84
50
45
40
35
Distance [ M ]
30
25
20
15
10
5
360 380 400 420 440 460 480 500 520 540 560
Number Frame
45
40
Vitesse [ Km/h ]
35
30
25
20
15
380 400 420 440 460 480 500 520 540 560
Number Frame
Figure B.4: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=20
± 2 Km/h.
85
• Hauteur (h) de la caméra = 1 .28 m
• Vitesse réelle = 40 ± 2 Km/h
70
65
60
55
Vitesse [ Km/h ]
50
45
40
35
30
10 15 20 25 30 35 40
Distance [ M ]
50
45
40
35
Distance [ M ]
30
25
20
15
10
5
200 220 240 260 280 300 320
Pixels
Figure B.6: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=40 ± 2
Km/h).
86
50
45
40
35
Distance [ M ]
30
25
20
15
10
5
250 260 270 280 290 300 310 320 330 340 350
Number Frame
70
65
60
55
Vitesse [ Km/h ]
50
45
40
35
30
310 315 320 325 330 335 340 345 350 355 360
Number Frame
Figure B.8: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40
± 2 Km/h).
87
• Hauteur (h) de la caméra = 1 .28 m
• Vitesse réelle = 60 ± 3 Km/h
80
75
70
65
Vitesse [ Km/h ]
60
55
50
45
40
10 15 20 25 30 35 40
Distance [ M ]
45
40
35
Distance [ M ]
30
25
20
15
10
5
200 210 220 230 240 250 260 270
Pixels
Figure B.10: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=60 ± 3
Km/h).
88
50
45
40
35
Distance [ M ]
30
25
20
15
10
5
160 170 180 190 200 210 220 230
Number Frame
80
75
70
65
Vitesse [ Km/h ]
60
55
50
45
40
170 180 190 200 210 220
Number Frame
Figure B.12: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m,
v=60 ± 3 Km/h).
89
• Hauteur (h) de la caméra = 1 .28 m
• Vitesse réelle = 80 ± 4 Km/h
120
110
100
90
80
Vitesse [ Km/h ]
70
60
50
40
30
20
10
15 20 25 30 35 40 45 50 55
Distance [ M ]
55
50
45
40
Distance [ M ]
35
30
25
20
15
10
205 210 215 220 225 230 235 240 245
Pixels
Figure B.14: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=80 ± 4
Km/h).
90
55
50
45
40
Distance [ M ]
35
30
25
20
15
10
180 185 190 195 200 205 210 215 220 225
Number Frame
120
110
100
90
80
Vitesse [ Km/h ]
70
60
50
40
30
20
10
180 185 190 195 200 205 210 215 220
Number Frame
91
• Hauteur (h) de la caméra = 1 .28 m
• Vitesse réelle = 100 ± 5 Km/h
180
170
160
150
Vitesse [ Km/h ]
140
130
120
110
100
90
80
15 20 25 30 35 40 45 50
Distance [ M ]
55
50
45
40
35
Distance [ M ]
30
25
20
15
10
5
200 210 220 230 240 250 260 270
Pixels
Figure B.18: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=100 ± 5
Km/h).
92
55
50
45
40
Distance [ M ]
35
30
25
20
15
10
5
115 120 125 130 135 140 145 150 155 160
Number Frame
170
160
150
Vitesse [ Km/h ]
140
130
120
110
100
90
80
115 120 125 130 135 140 145 150 155
Number Frame
93
• Hauteur (h) de la caméra = 2.2 m
• Vitesse réelle = 40 ± 2 Km/h
100
90
80
70
Vitesse [ Km/h ]
60
50
40
30
20
10
10 20 30 40 50 60 70
Distance [ M ]
60
50
Distance [ M ]
40
30
20
10
0
220 240 260 280 300 320 340
Pixels
Figure B.22: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=40 ± 2
Km/h).
94
70
60
50
Distance [ M ]
40
30
20
10
0
150 200 250 300
Number Frame
100
90
80
70
Vitesse [ Km/h ]
60
50
40
30
20
10
160 180 200 220 240 260 280
Number Frame
95
• Hauteur (h) de la caméra = 2.2 m
• Vitesse réelle = 80 ± 4 Km/h
120
110
100
90
Vitesse [ Km/h ]
80
70
60
50
40
30
0 10 20 30 40 50 60 70
Distance [ M ]
70
60
50
Distance [ M ]
40
30
20
10
0
200 220 240 260 280 300 320 340
Pixels
Figure B.26: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=80 ± 4
Km/h).
96
70
60
50
Distance [ M ]
40
30
20
10
0
110 120 130 140 150 160 170 180
Number Frame
110
100
90
Vitesse [ Km/h ]
80
70
60
50
40
30
120 130 140 150 160 170
Number Frame
97
• Hauteur (h) de la caméra = 2.2 m
• Vitesse réelle = 110 ± 5 Km/h
180
160
Vitesse [ Km/h ]
140
120
100
80
10 15 20 25 30 35 40
Distance [ M ]
45
40
35
30
Distance [ M ]
25
20
15
10
5
140 145 150 155 160 165 170 175
Number Frame
98
• Hauteur (h) de la caméra = 1.31 m
• Vitesse réelle = 20 ± 2 Km/h
• l’angle de roulis Ф =10 °
30
25
20
Vitesse [ Km/h ]
15
10
5 10 15 20 25 30 35
Distance [ M ]
Figure B. 31: Vitesse en fonction de la distance (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
40
35
30
25
Distance [ M ]
20
15
10
0
20 40 60 80 100 120 140 160
Pixels
Figure B.32: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=20 ± 2
99
45
40
35
30
Distance [ M ]
25
20
15
10
0
40 60 80 100 120 140 160 180 200 220 240
Number Frame
35
30
Vitesse [ Km/h ]
25
20
15
10
5
80 100 120 140 160 180 200 220
Number Frame
100
• Hauteur (h) de la caméra = 1.31 m
• Vitesse réelle = 50 ± 2 Km/h
• l’angle de roulis Ф =10 °
100
90
80
70
Vitesse [ Km/h ]
60
50
40
30
20
10
5 10 15 20 25 30 35 40 45 50
Distance [ M ]
Figure B.35: Vitesse en fonction de la distance (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
35
30
25
Distance [ M ]
20
15
10
0
20 40 60 80 100 120 140 160 180 200
Pixels
Figure B.36: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=50 ± 2
Km/h, Ф =10 °).
101
40
35
30
25
Distance [ M ]
20
15
10
0
180 200 220 240 260 280 300
Number Frame
80
70
60
Vitesse [ Km/h ]
50
40
30
20
230 240 250 260 270 280 290
Number Frame
102
B.3 Les résultats de l’approche de la stéréovision
• Vitesse réelle = 20 ± 2 Km/h
• Base line =10 cm
• Focale =948.40580 Pixel =7.1130 mm
45
40
35
30
Vitesse [ Km/h ]
25
20
15
10
5 10 15 20 25 30 35 40 45 50
Distance [ M ]
55
50
45
40
Distance [ M ]
35
30
25
20
15
10
5
100 150 200 250 300 350
Nombre de Frame
103
30
25
20
Vitesse [ Km/h ]
15
10
0
180 200 220 240 260 280
Nombre de Frame
90
80
70
Vitesse [ Km/h ]
60
50
40
30
20
10
5 10 15 20 25 30 35 40 45 50
Distance [ M ]
55
50
45
40
Distance [ M ]
35
30
25
20
15
10
5
80 100 120 140 160 180 200
Nombre de Frame
Figure B.43: Distance mesurée en fonction du numéro du frame (temps) par
stéréovision (v=50±2 Km/h).
100
90
80
70
Vitesse [ Km/h ]
60
50
40
30
20
10
0
105 110 115 120 125 130 135 140 145 150
Nombre de Frame
105
B.4 Implémentation sur la carte TMS 320 DM6437 EVM
106
Figure B.46: Implémentation du l’algorithme du Sobel.
107
Figure B.48: Mesure de distance d’un piéton proche.
108