These lefort
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
733
On Slideshare
733
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
0
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. N° d’ordre : 2010telb0164 Sous le sceau de l’Université européenne de Bretagne Télécom Bretagne En habilitation conjointe avec l’Université de Rennes 1 Co-tutelle avec l’Ifremer Ecole Doctorale – MATISSE Apprentissage et classification faiblement supervisée : Application en acoustique halieutique Thèse de Doctorat Mention : Traitement du signal Présentée par Riwal Lefort Département : Signal et Communication Laboratoire : Labsticc Pôle : CID Directeur de thèse : Jean-Marc Boucher Soutenue le 29 novembre 2010Jury :M. Frédéric Jurie, professeur, université de Caen (Rapporteur)Mme Pascale Kuntz, professeur, université de Nantes (Rapporteur)M. Jean-Marc Boucher, professeur, Telecom Bretagne (Directeur de thèse)M. Laurent Miclet, professeur, université de Rennes1 (Examinateur)M. Ronan Fablet, enseignant-chercheur, Telecom Bretagne (Examinateur)M. Carla Scalabrin, chercheur, Ifemer (Examinateur)M. Laurent Berger, Ifremer (Invité)
  • 2. Table des matièresTable des matières v1 Introduction générale viiI Classication automatique et apprentissage faiblement su-pervisé xi2 Les modèles de classication usuels : état de lart xiii PFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xiii PFP gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F F F F F xiv PFPFI wodèle génér—tif F F F F F F F F F F F F F F F F F F F F F F F F F F xv PFPFP wodèle dis™rimin—nt F F F F F F F F F F F F F F F F F F F F F F F F xvi PFPFQ wodèle hy˜ride X —r˜res de ™l—ssi(™—tion F F F F F F F F F F F F F xix PFQ gl—ssi(™—tion non supervisée F F F F F F F F F F F F F F F F F F F F F F F F xxi PFR gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F F F F F xxii PFS gl—ssi(™—tion semiEsupervisée F F F F F F F F F F F F F F F F F F F F F F F xxiii PFT gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvi3 Classication faiblement supervisée : modèles proposés xxvii QFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvii QFIFI qénér—lités F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvii QFIFP xot—tions F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii QFP wodèle génér—tif F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii QFPFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii QFPFP gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xxviii QFPFQ gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xxx QFQ wodèle dis™rimin—nt F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxxiii
  • 3. iv TABLE DES MATIÈRES QFQFI gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xxxiv QFQFP gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xli QFR er˜res de ™l—ssi(™—tion F F F F F F F F F F F F F F F F F F F F F F F F F F F xlii QFRFI gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xlii QFRFP gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xliv QFS gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlv4 Association de classieurs xlvii RFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlvii RFP insem˜le de ™l—ssi(eurs F F F F F F F F F F F F F F F F F F F F F F F F F F xlvii RFPFI it—t de l9—rt F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlviii RFPFP ‚—ndom forest X —pprentiss—ge supervisé F F F F F F F F F F F F F xlix RFPFQ ‚—ndom forest X —pprentiss—ge f—i˜lement supervisé F F F F F F F l RFQ gl—ssi(™—tion itér—tive F F F F F F F F F F F F F F F F F F F F F F F F F F F li RFQFI epprentiss—ge itér—tif simple F F F F F F F F F F F F F F F F F F F F li RFQFP epprentiss—ge itér—tif —mélioré F F F F F F F F F F F F F F F F F F F lii RFR gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F liii5 Evaluations et performances des modèles lv SFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lv SFP €ro™édure de simul—tion F F F F F F F F F F F F F F F F F F F F F F F F F F lv SFQ teux de données F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lvi SFR €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lvii SFRFI ghoix des p—r—mètres F F F F F F F F F F F F F F F F F F F F F F F F lvii SFRFP €erform—n™es en fon™tion de l— ™omplexité des données d9—pprenE tiss—ge F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lix SFRFQ €erform—n™es en fon™tion du nom˜re de ™l—sses d—ns les mél—nges lx SFS gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxiiiII Classication automatique en acoustique halieutique lxvii6 Sondeurs acoustiques et logiciels de traitement lxix TFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxix TFP ƒondeur monof—is™e—u F F F F F F F F F F F F F F F F F F F F F F F F F F F lxx TFQ ƒondeur multif—is™e—ux F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxii TFR gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxiii
  • 4. TABLE DES MATIÈRES v7 Classication et reconnaissance des structures lxxvii UFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxvii UFP it—t de l9—rt F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxviii UFQ gl—ssi(™—tion et re™onn—iss—n™e des ˜—n™s de poissons F F F F F F F F F F lxxix UFQFI hes™ripteurs des ˜—n™s Ph F F F F F F F F F F F F F F F F F F F F F lxxix UFQFP hes™ripteurs des ˜—n™s Qh F F F F F F F F F F F F F F F F F F F F F lxxx UFQFQ €erform—n™es de ™l—ssi(™—tion X f—n™s Ph F F F F F F F F F F F F F lxxxiii UFR gl—ssi(™—tion et re™onn—iss—n™e des ensem˜les de ˜—n™s de poissons F F lxxxiv UFRFI €ré—m˜ule F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxxiv UFRFP hes™ripteur glo˜—l proposé F F F F F F F F F F F F F F F F F F F F F lxxxv UFRFQ €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F x™ UFRFR ƒynthèse F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™i UFS gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™ii8 Application à lévaluation des biomasses des espèces halieutiques dans le Golfe de Gascogne cv VFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™v VFP wéthode de l9expert pour l9év—lu—tion de ˜iom—sses F F F F F F F F F F F ™vi VFQ wéthodes —lgorithmiques d9év—lu—tion de ˜iom—sses F F F F F F F F F F F ™ix VFR gl—ssi(™—tion de ˜—n™s de poissons pour l9év—lu—tion de ˜iom—sses F F F ™x VFRFI gomment év—luer l— ˜iomm—sse F F F F F F F F F F F F F F F F F F ™x VFRFP …n ™ritère d9optimis—tion des p—r—mètres des ™l—ssi(eurs F F F F ™xii VFS €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xiii VFSFI ƒimul—tion d9un s™én—rio F F F F F F F F F F F F F F F F F F F F F F ™xiii VFSFP g—mp—gne €ivqeƒHH F F F F F F F F F F F F F F F F F F F F F F F ™xiv VFSFQ his™ussion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xxi VFT gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xxvi9 Conclusion Générale cxxviiIII Annexes et Bibliographie cxxxiii
  • 5. CHAPITRE 1 Introduction générale gette thèse tr—iteD d9une p—rtD de l— ™l—ssi(™—tion —utom—tique d—ns un ™—dre d9—pEprentiss—ge f—i˜lement superviséD et d9—utre p—rtD de l9—™oustique h—lieutiqueF ve m—Enus™rit est s™indé en deux p—rties prin™ip—les X les méthodes d9—pprentiss—ge d9un pointde vue théorique @p—rtie sA et l9—ppli™—tion de ™es méthodes d—ns le ™ontexte de l9—™ousEtique h—lieutique @p—rtie ssAF h—ns ™e premier ™h—pitre introdu™tifD nous ™ommençonsp—r dé(nir l— pro˜lém—tique de l9intelligen™e —rti(™ielle d—ns son ensem˜leD puisD ™elle del9—pprentiss—ge f—i˜lement superviséD ensuiteD nous introduisons le dom—ine de l9—™ousEtique h—lieutiqueD et en(nD le pl—n de ™ette thèse est présentée su™™in™tementF h—ns l9ensem˜le des dom—ines de re™her™heD ™elui de l9intelligen™e —rti(™ielle estex™essivement proli(queF v9intelligen™e —rti(™ielle ™onsiste à —n—lyser et tr—iter des siEgn—ux numériquesD tels que des photogr—phiesD des vidéosD des sonsD des r—diogr—phiesDdes é™hogr—phiesD des im—ges r—d—r @s—tellitesD —éron—utiqueD —utomo˜ileD et™AD des p—geswe˜D des do™uments m—nus™rits @—n—lyse de l— sém—ntiqueAD ou en™oreD toute entité quise dé™rit de m—nière numériqueFves méthodes proposées s9inspirent souvent de l9hommeD l9o˜je™tif ét—nt de développerdes outils d9—n—lyse et de tr—itement dont les perform—n™es sont —u moins équiv—lentesà ™elles du ™erve—u hum—inF v— question fond—ment—le est résumée d—ns l9exemple suiEv—nt X si l9homme —rrive à diéren™ier un o˜jet d9un —utre d—ns une im—geD pourquoi unordin—teur n9y —rriver—itEil p—s c get —™h—rnement s™ienti(que est prin™ip—lement moEtivé p—r le très fort potentiel des outils inform—tiquesF einsiD l9import—n™e de p—rvenirà ™e ˜ut et qui justi(e que l9intelligen™e —rti(™ielle ™on™entre une m—jorité de reg—rdset d9intérêtsD réside d—ns l9énorme ™—p—™ité de ™—l™uls et de mémoires des ordin—teursFve dom—ine de l9intelligen™e —rti(™ielle peut être s™indé en une multitude de ™—tégoriesF€—rmi les dis™iplines ™ommunesD on peut ™iter le tr—™king @suivi des stru™tures déforEm—˜les ou indéform—˜les d—ns une vidéoAD l— déte™tion de texture d—ns des im—gesD l—™l—ssi(™—tion @—ttri˜ution d9une ™l—sse à une im—geD à une portion d9im—geD à un pixelDet à toute entité qui peut être ™l—ssée d—ns une ™—tégorieAD l— re™onn—iss—n™e de formes@déte™tion du ™ontour d9un o˜jet d—ns une im—geAD l— rédu™tion de l— dimension desdonnées @p—r exemple en ™ompression de donnéesAD l— fusion de données @l— réponse àune question posée se ˜—se sur une o˜serv—tion multiE™—pteur et ™ontextuelleAD et™Fin intelligen™e —rti(™ielleD les ™her™heurs proposent des modélis—tions m—thém—tiquesplus ou moins ™omplexes qui donnent l— solution à une question poséeF ges modèlespeuvent être représentés p—r une ˜oite noire dont l9entrée est le sign—l issu du ™—pteuret dont l— sortie fournit une réponse à l— question poséeF v— plup—rt des modèles et
  • 6. viii CHAPITRE 1. INTRODUCTION GÉNÉRALEdes —ppro™hes proposés sont tr—nsverses X ils sont utilisés d—ns plusieurs dis™iplines enmême tempsF €—r exempleD le même modèle m—thém—tique de suivi d9o˜jet peut êtreutilisé pour suivre une ™i˜le d—ns une im—ge r—d—r ou pour suivre un o˜jet d—ns unevidéoF he l— même m—nièreD un modèle m—thém—tique peut servir à l— foisD de ™l—ssiE(eur d9o˜jets d—ns des im—gesD de ™l—ssi(eur de types de sonsD de ™l—ssi(eur de p—geswe˜D de ™l—ssi(eur de do™uments m—nus™ritsD et™F gette rem—rque justi(e le pl—n géEnér—l de l— thèse X plutôt que de proposer des méthodes de tr—itement du sign—l d—nsun ™—dre —ppli™—tifD nous nous pl—çons d9—˜ord d—ns le ™—s génér—l qui —utorise toutetr—nsvers—litéD puis nous étudions une —ppli™—tion possi˜le des méthodes proposéesF h—ns ™ette thèseD d—ns l— p—rtie s dédiée à l9—ppro™he théorique et génér—leD nousnous pl—çons d—ns le ™—s de l— ™l—ssi(™—tion d9o˜jetsD ™euxE™i ét—nt des entités dé(niesp—r un ensem˜le de des™ripteursD p—r exemple les ™—r—™téristiques des formes des o˜Ejets pré—l—˜lement déte™tés d—ns une im—geF v— question théorique prin™ip—le que nousnous posons est X gomment r—nger ™es o˜jets d—ns des ™l—sses c yu ™omment —ttri˜uerun l—˜el à ™h—que o˜jet c xous dé(nissons un l—˜el ™omme ét—nt l— ™l—sse —sso™iée àun o˜jetF sm—ginonsEnous une ˜oite noire qui prend un o˜jet s—ns l—˜el en entrée etdont l— sortie renseigne sur les ™l—sses pro˜—˜lesF gette ˜oite noire ™ontient un modèlede ™l—ssi(™—tionF geuxE™i sont très nom˜reux et les —ppro™hes sont très v—ri—˜lesF gesmodèles de ™l—ssi(™—tions dépendent de p—r—mètres @propres à ™h—que méthodeA quisont déterminés lors d9une ph—se d9—pprentiss—geF v9—pprentiss—ge des modèles de ™l—sEsi(™—tion est ee™tué à p—rtir d9un ensem˜le d9o˜jets @ou de donnéesA d9—pprentiss—gequi sont plus ou moins l—˜élisésF in eetD il existe plusieurs types d9—pprentiss—ge quidépendent de l— ™onn—iss—n™e plus ou moins ex—™te des l—˜els des données d9—pprentisEs—geF ƒi tous les l—˜els sont ™onnusD on p—rle d9—pprentiss—ge superviséF in —pprentiss—gesemiEsuperviséD seule une p—rtie des données est l—˜éliséeD l9—utre ne l9est p—sF in —pEprentiss—ge non superviséD les données ne sont p—s l—˜éliséesD l9o˜je™tif est de regrouperles o˜jets en p—quets de données simil—iresF in(nD l9—pprentiss—ge f—i˜lement superviségénér—lise le ™—s supervisé et semiEsupervisé X les données d9—pprentiss—ge sont —sso™iéesà un ve™teur dont ™h—que ™ompos—nte donne l— pro˜—˜ilité — priori d9—ttri˜ution del9o˜jet ™onsidéré à ™h—que ™l—sse respe™tivementF v9origin—lité de ™ette p—rtie se situed—ns ™e form—lisme d9—pprentiss—ge f—i˜lement supervisé qui ™onsidère un modèle de™l—ssi(™—tion dont l9—pprentiss—ge —grège d9—utres formes d9—pprentiss—geFgomme nous l9—vons présenté d—ns le p—r—gr—phe introdu™tifD un gr—nd nom˜re demodélis—tions m—thém—tiques est envis—gé pour ™h—™un des types d9—pprentiss—geF gesgr—ndes f—milles de modèles sont tr—nsverses X le plus souventD moyenn—nt quelques reEformul—tions méthodologiques ou m—thém—tiquesD elles s9—ppliquent pour tous les typesd9—pprentiss—geF h—ns ™ette thèseD nous reprenons trois gr—ndes f—milles de modèles X lesmodèles génér—tifsD les modèles dis™rimin—ntsD et des modèles hy˜rides de ™l—ssi(™—tionFxotre o˜je™tif est de proposerD pour ™h—™une des —ppro™hes m—thém—tiques envis—géesDun modèle de ™l—ssi(™—tion dont les p—r—mètres sont év—lués d—ns le ™—dre de l9—pprenEtiss—ge f—i˜lement superviséD et don™D qui génér—lise toutes les formes d9—pprentiss—geFh—ns le dom—ine de l— ™l—ssi(™—tion d9o˜jetsD d9—utres méthodes ont vu le jourF gellesE™i exploitent les modèles m—thém—tiques fond—ment—ux pré™édemment dé™rits en les™om˜in—nt de plusieurs f—çonsF einsiD ils peuvent être ™on™—ténés en ™—s™—de de ™l—ssiE(eursD les résult—ts de ™l—ssi(™—tion issus de plusieurs ™l—ssi(eurs peuvent être fusionnés
  • 7. ixpour prodiguer une seule proposition de ™l—ssi(™—tionD l9estim—tion des p—r—mètres d9unmodèle de ™l—ssi(™—tion peut s9ee™tuer itér—tivementD et™F …ne multitude d9—ppro™hesest envis—ge—˜le pour ee™tuer une ™om˜in—isonF h—ns ™ette thèse nous —˜ordons lesméthodes de ™om˜in—isons les plus ™onnues et nous proposons des solutions pour l9—pEprentiss—ge f—i˜lement superviséF ves perform—n™es de ™l—ssi(™—tion des modèles etdes méthodes de ™om˜in—ison proposés d—ns l— p—rtie s sont év—luées sur des jeux dedonnées d9—pprentiss—ge synthétiques dont nous m—itrisons les pro˜—˜ilités — priori de™l—ssi(™—tionF ge ™ontrôle tot—l des données d9—pprentiss—ge permet de ™omp—rer etd9—n—lyser les diérentes —ppro™hes rel—tivement à des ™onditions p—rti™ulièresF h—ns l— p—rtie ss de ™ette thèseD nous étudions l9—pprentiss—ge st—tistique d—nsle ™—dre de l9—™oustique h—lieutiqueF v9—™oustique h—lieutique est l—rgement étudiéep—r l9snstitut pr—nç—is de ‚e™her™he pour l9ixploit—tion de l— wi‚ @sp‚iwi‚A qui— (n—n™é en p—rtie ™ette thèseD ™e dom—ine s™ienti(que f—it p—rtie de l— f—mille del9—™oustique sousEm—rineF €—rmi l9ensem˜le des énergies possi˜les @éle™triqueD éle™troEm—gnétiqueD lumineuseD et™AD seule l9énergie —™oustique possède des ™—r—™téristiques deprop—g—tion —déqu—tes d—ns le milieu sousEm—rinF einsiD d—ns l9environnement —qu—EtiqueD l9—™oustique est utilisée en télé™ommuni™—tion ™omme support de tr—nsmissionDen géos™ien™e pour l9étude des fonds m—rins et de leur sousEsols @les —ppli™—tions ét—nt l—sédimentologieD l— ˜—thymétrie et l— prospe™tion pétrolièreAD en o™é—nogr—phie physiquepour l9étude et l— ™—r—™téris—tion des ™our—nts m—rinsD et en ˜iologie —ve™ l9étude du™omportement des espè™es sousEm—rinesF ge dernier point est tr—ité d—ns ™ette thèse Xl9o˜serv—tion —™oustique des espè™es h—lieutiques et l9—n—lyse de ™es o˜serv—tionsF…n sondeur —™oustiqueD pl—™é sous l— ™oque d9un n—vireD est le seul outil qui permetd9o˜tenir une im—ge de résolution ™orre™teD d—ns l—quelle (gure le fond de l— mer ettous les o˜jets présents d—ns l— ™olonne d9e—uF heux f—™teurs prin™ip—ux motivent l9utiElis—tion des sondeurs —™oustiques en ˜iologie h—lieutiqueF €remièrementD l9exploit—tiondes ressour™es h—lieutiques doit être en™—drée —(n d9éviter tout pro˜lème de surexploiEt—tion et don™ de disp—rition des espè™esF h—ns ™e ™ontexteD les sondeurs —™oustiquespermettent de dimensionner les sto™ks des espè™es ™on™ernées —(n de (xer des quot—sde pê™heF xotons qu9il existe d9—utres moyens d9év—lu—tion des sto™ksD ™omme l9é™h—nEtillonn—ge en ™riéesF heuxièmementD d9un point de vue ˜iologiqueD pour ™omprendre lefon™tionnement de l9é™osystème sous m—rin d—ns son ensem˜leD et —insi l9étude de l—vie sur terreD il est né™ess—ire d9étudier le ™omportement des espè™es h—lieutiques et dupl—n™tonF €—r exempleD on peut se dem—nder ™omment vont se ™omporter les s—rdinesrel—tivement —u ré™h—uement ™lim—tique X vontEelles migrer c veur nom˜re v—EtEil évoEluer c „outes ™es questions né™essitent une o˜serv—tion —™oustique de l— ™olonne d9e—uDseul moyen de déterminer l— ™omposition des o™é—nsFges o˜serv—tions —™oustiques sont ee™tuées lors de ™—mp—gnes o™é—nogr—phiques dontle proto™ole in™lut un point ™ru™i—l et ™ritique X l9identi(™—tion des stru™tures de l9im—ge—™oustiqueF e™tuellementD ™ette ét—pe d9identi(™—tion est ee™tuée p—r un expert à p—rEtir des im—ges —™quises p—r un sondeur —™oustique monof—is™e—uD ™epend—ntD il existeune forte dem—nde d9—utom—tis—tion du pro™essus qui se justi(e p—r le f—it que l9expertest ™onfronté à une m—sse d9inform—tions de plus en plus import—nteF €remièrementD ilexiste plusieurs types de sondeurs monof—is™e—u ™—r—™térisés p—r des fréquen™es d9imEpulsions —™oustiques diérentesD ™e qui modi(e les morphologies des stru™tures d—ns les
  • 8. x CHAPITRE 1. INTRODUCTION GÉNÉRALEim—ges et leurs —ttri˜uts énergétiquesF heuxièmementD l9—rrivée du sondeur multif—isE™e—ux permet l9—™quisition d9une im—ge en trois dimensions de l— ™olonne d9e—u qui est˜e—u™oup plus pré™ise et plus ri™he en inform—tionsD m—is qui rend l9—n—lyse des donnéesplus ™omplexeF einsi l9expert est supposé ™onsidérer les inform—tions ™umulées de tousles types de sondeurs à l— foisF wême si le ™erve—u hum—in est puiss—nt et très perforEm—ntD il possède ses limitesD et l9—n—lyse ™onjuguée de l9ensem˜le de ™es inform—tionsest ™omplexeF gette —ppli™—tion illustre le tr—nsfert hommeGm—™hine qui — été dé™ritd—ns le p—r—gr—phe pré™édent et justi(e l9—utom—tis—tion du pro™essus d9identi(™—tiondes stru™tures d—ns les im—ges —™oustiquesFh—ns ™e ™ontexte de ™l—ssi(™—tion d9im—ges etGou de stru™tures d—ns des im—ges —™ousEtiquesD nous proposerons des méthodes d9—pprentiss—ge de modèles de ™l—ssi(™—tionpour l9—™oustique h—lieutiqueD nous proposerons —ussi des des™ripteurs d9—grég—tion depoissons d—ns les é™hogr—mmesD et une —ppli™—tion à l9év—lu—tion des sto™ks de poissonsdu qolfe de q—s™ogne ser— présentéeF ge mémoire de thèse est org—nisé en deux gr—ndes p—rties @les p—rties s et ss quisont ellesEmêmes s™indées en plusieurs ™h—pitresAF €remièrementD l— p—rtie s tr—ite dupro˜lème de l— ™l—ssi(™—tion —utom—tique d9o˜jets d—ns le ™—dre de l9—pprentiss—ge f—iE˜lement superviséF eprès un ét—t de l9—rt génér—l sur les méthodes de ™l—ssi(™—tion@™h—pitre PAD trois modèles de ™l—ssi(™—tion dont les philosophies sont opposées serontétudiés d—ns le ™h—pitre QF ve ™h—pitre suiv—nt @™h—pitre RA ™on™entre des méthodes de™om˜in—isons de ™l—ssi(eurs élément—ires et de fusion de ™l—ssi(eursF in(nD des expéErien™es sont menées d—ns le ™h—pitre S —(n d9—n—lyser et de ™omp—rer les perform—n™esde ™l—ssi(™—tion des modèles et des méthodes proposéesF „outes ™es expérien™es sontee™tuées à p—rtir de jeux de données synthétiques qui nous permettent de m—îtriserles ™omplexités des ensem˜les d9—pprentiss—geF heuxièmementD l— p—rtie ss tr—ite dedonnées qui proviennent essentiellement de l9—™oustique h—lieutiqueF h—ns le ™h—pitreTD les ™—r—™téristiques te™hniques des sondeurs —™oustiques sont présentées ˜rièvementD—insi que l— te™hnique d9o˜tention des im—ges de l— ™olonne d9e—uF ves des™ripteurs des—grég—tions sont étudiés d—ns le ™h—pitre UF heux types d9—n—lyses sont envis—gés X une—n—lyse lo™—le qui ™onsiste en l9emploi des des™ripteurs des ˜—n™s de poissons et une—n—lyse glo˜—le pour l—quelle nous ™—l™ulons des des™ripteurs glo˜—ux pour une im—gede ˜—n™s de poissonsF in(nD une —ppli™—tion à l9év—lu—tion des sto™ks de poissons d—nsle qolfe de q—s™ogne est ee™tuée @™h—pitre VAF xous en pro(tons pour —ppliquer lesméthodes d9—pprentiss—ge f—i˜lement supervisé proposées d—ns l— p—rtie s du mémoireet pour utiliser les des™ripteurs de ˜—n™s de poissons présentés d—ns l— p—rtie ssF …ne™on™lusion génér—le @™h—pitre WA et une p—rtie qui ™ontient les —nnexes et l— ˜i˜liogr—phie@p—rtie sssA ™los ™e mémoire de thèseF
  • 9. Première partie Classication automatique etapprentissage faiblement supervisé
  • 10. CHAPITRE 2 Les modèles de classication usuels : état de lart2.1 Introduction ve ™h—pitre I est ™ons—™ré à l9ét—t de l9—rt des modèles de ™l—ssi(™—tion usuelsFves méthodes exist—ntes sont présentées su™™in™tementD l9o˜je™tif n9ét—nt p—s de toutexpli™iter en dét—il m—is de f—ire ét—t des ™onn—iss—n™es exist—ntes en ™l—ssi(™—tiond9o˜jets —(n de situer les —pports méthodologiquesF v— pro˜lém—tique porte sur l9—pprentiss—ge st—tistique et l— ™l—ssi(™—tion —utom—Etique pro˜—˜iliste d9un ensem˜le d9o˜jetsF …n modèle de ™l—ssi(™—tion est un outilm—thém—tique qui permet d9—e™ter une ™l—sse à une entité en fon™tion de ses proEpriétés intrinsèquesF v9—ppro™he étudiée d—ns ™e mémoire est purement pro˜—˜iliste X™h—que o˜jet —pp—rtient à une ™l—sse et nous m—nipulons des ve™teurs qui tr—duisentles pro˜—˜ilités d9—e™t—tion à ™h—que ™l—sseF xotons queD ™omme notre —ppro™he estpro˜—˜ilisteD etD ™omme nos ™onn—iss—n™es initi—les sur les données d9—pprentiss—ge sontdes pro˜—˜ilités de ™l—ssi(™—tion — prioriD nous n9étudierons p—s des méthodes plus géEnér—les ™omme l— théorie de hempsterEƒh—fer ‘I“ qui ™om˜ine des ™onn—iss—n™es — prioridistin™tes sur les données d9—pprentiss—geF in ™l—ssi(™—tion —utom—tiqueD on distingue les données d9—pprentiss—ge qui ét—E˜lissent le modèle de ™l—ssi(™—tionD et les données de test qui sont ™l—ssées à l9—idedu modèleF €our —pprendre un modèle de ™l—ssi(™—tionD il existe plusieurs types d9—pEpro™hes qui dépendent de l— n—ture des données d9—pprentiss—geF ƒi les ™l—sses d9originedes données d9—pprentiss—ge sont ™onnuesD nous p—rlons d9—pprentiss—ge 4 supervisé 4Fxous p—rlons d9—pprentiss—ge 4 non supervisé 4 @ou de p—rtitionnement de donnéesAd—ns le ™—s où les ™l—sses d9origine ne sont p—s ™onnuesF …n troisième groupe r—ssem˜leles ™—s pour lesquels il existe une in™ertitude sur le l—˜el des données d9—pprentiss—geDp—r exemplesD le ™—s où seuls les — priori des ™l—sses sont ™onnusD ou le ™—s de l— ™l—ssi(E™—tion d9o˜jets d—ns des im—ges pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses sont™onnues ‘P“F h—ns ™e ™—sD nous p—rlons d9—pprentiss—ge 4 f—i˜lement supervisé 4 ou d9—pEprentiss—ge 4 p—rtiellement supervisé 4F v9—pprentiss—ge 4 semiEsupervisé 4 est utiliséqu—nd il y — peu de données l—˜élisées ‘Q“F hes exemples s—ns l—˜el sont —lors —joutésà l9ensem˜le d9—pprentiss—ge qui ne ™ontient que des exemples de ™l—sses ™onnues d—ns
  • 11. CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DExiv LARTle ˜ut d9—™™roître l— qu—ntité d9inform—tionsF v9—pprentiss—ge f—i˜lement supervisé génér—lise les ™—s supervisés et semiEsupervisésFve prin™ipe de l9—pprentiss—ge f—i˜lement supervisé est d9—ttri˜uerD à ™h—que exempled9—pprentiss—geD un ve™teur qui indique les pro˜—˜ilités — priori d9—e™t—tion à ™h—que™l—sseF €—r exempleD en ™onsidér—nt IP o˜jets pour l9—pprentiss—ge et Q ™l—sses possi˜lesD—lors les ve™teurs qui fournissent les pro˜—˜ilités d9—e™t—tion pourr—ient être X 0.4 1 0.1 0 0 0.33 0.2 0.4 0 0.2 0.4 0 0.6 0 0 0 0.1 0.8 0.5 0.5 1 0 0.33 0.33 0.5 0.3 0.3 0.3 0 1 0.6 .2 0.5 0.1 0 1 @PFIAin —pprentiss—ge superviséD les pro˜—˜ilités d9—e™t—tion pourr—ient être X 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 1 0 1 0 1 0 0 1 0 1 0 1 0 1 @PFPAin —pprentiss—ge semiEsuperviséD les pro˜—˜ilités d9—e™t—tion pourr—ient être X 1 1 0 0 0 0 0.33 0.33 0.33 0.33 0.33 0.33 0 0 0 0 1 0 1 0 0 1 0 1 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 @PFQA€our l— ™l—ssi(™—tion semiEsuperviséeD les exemples initi—lement s—ns l—˜el peuvent être™onsidérés ™omme l—˜élisés à l9—ide d9un ve™teur qui tr—duit le f—it que les ™l—sses sontéquipro˜—˜lesF einsiD les ™ompos—ntes du ve™teurD qui donnent l— pro˜—˜ilité des ™l—ssesDsont ég—lesF v9—pprentiss—ge semiEsupervisé peut —ussi être vu ™omme un ™—s d9—pprenEtiss—ge f—i˜lement supervisé pour lequel on —ur—it ee™tué un seuill—ge sur les — priori@si les pro˜—˜ilités de ™l—ssi(™—tion — priori sont simil—ires pour un o˜jet d9—pprentisEs—geD —lors les ™l—sses sont ™onsidérées ™omme équipro˜—˜lesD et si une pro˜—˜ilité de™l—ssi(™—tion — priori domine d—ns l9ensem˜leD —lors l— ™l—sse ™onsidérée est —ttri˜uéeà l9exemple ™on™ernéAF in(nD en —pprentiss—ge non superviséD le nom˜re de ™l—sse estin™onnu et —u™un l—˜el n9est disponi˜leF sl v— de soit que l— ™omplexité des modèles d9—pprentiss—ge —ugmente —ve™ l9in™erEtitude sur les l—˜elsF gepend—ntD un —lgorithme ™omplexe ou un —pprentiss—ge à p—rtird9un jeu de données très in™ert—ins n9engendre p—s né™ess—irement de m—uv—ises perEform—n™es de ™l—ssi(™—tionF €—r exempleD d—ns ™ert—ins ™—sD on montre que l9—jout dedonnées s—ns l—˜el —u jeu de donnée d9—pprentiss—ge @—pprentiss—ge semiEsupervisé ‘Q“Apermet d9—méliorer les perform—n™es de ™l—ssi(™—tionF €our l9—pprentiss—ge superviséD l9—pprentiss—ge non superviséD l9—pprentiss—ge f—iE˜lement superviséD et l9—pprentiss—ge semiEsuperviséD respe™tivement étudiés d—ns lesse™tions PFPD PFQD PFRD et PFSD nous expli™itons les modèles de ™l—ssi(™—tion —sso™iés et™—r—™térisons leurs diéren™esF gh—que méthode présentée est ™l—ssée d—ns une desgr—ndes f—milles de modèlesD à s—voir les modèles génér—tifsD les modèles dis™rimin—ntset les modèles hy˜rides que nous dé(nirons d—ns l— se™tion PFPF2.2 Classication supervisée ‚—ppelons que l9—pprentiss—ge supervisé ™onsiste à ét—˜lir un modèle de ™l—ssi(™—EtionD à p—rtir d9un ensem˜le d9—pprentiss—ge ™onstitué de données dont les ™l—sses sontp—rf—itement ™onnuesF
  • 12. 2.2. CLASSIFICATION SUPERVISÉE xv2.2.1 Modèle génératif €renons l— dé(nition du mot 4 génér—tif 4 X 4 ui engendreD qui — r—pport à l—génér—tion 4 @gentre x—tion—l de ‚essour™e „extuelles et vexi™—lesAF h—ns ™e ™—sD lemodèle est pro™he des donnéesF ƒi l— loi ™onsidérée @xorm—leD fêt—D q—mm—D mél—ngede q—ussienneD exponentielleD €oissonD F F F A pour le modèle de ™l—ssi(™—tion est ™onveEn—˜lement ™hoisieD l— seule ™onn—iss—n™e du modèle peut permettre de re™onstituer unensem˜le d9o˜serv—tions possi˜lesF einsiD pour le modèle génér—tifD le ™l—ssi(eur estune fon™tion m—thém—tique qui dé™rit —u mieux l9org—nis—tion sp—ti—le des donnéesd—ns l9esp—™e des des™ripteursF €—r exempleD si un jeu de données forme un ensem˜lede ˜oules d—ns l9esp—™e des —ttri˜utsD nous pouvons modéliser le nu—ge de points p—run mél—nge de q—ussiennesF v9o˜je™tif de l9—pprentiss—ge ét—nt —lors de déterminer lespositions @moyennesA et les t—illes @v—ri—n™esA de ™h—que modeF €lus génér—lementD l9—pEprentiss—ge ™onsiste à estimer les p—r—mètres d9une loi ™i˜le etD pour l— ™l—ssi(™—tionDl— pro˜—˜ilité — posteriori donne les pro˜—˜ilités de ™h—que ™l—sseF ey—nt ™hoisi une densité de pro˜—˜ilité ™i˜le p—r—métriqueD une te™hnique ™onnue™onsiste à utiliser le m—ximum de vr—isem˜l—n™e @w†A pour estimer les p—r—mètres ‘R“‘S“ ‘T“ ‘U“ ‘V“ ‘W“ ‘IH“ ‘II“ ‘IP“ ‘IQ“F ves p—r—mètres optim—ux sont ™eux qui m—ximisentl— vr—isem˜l—n™eF ve ™—s multimod—l f—it que l— m—ximis—tion est très ™omplexeD d—ns™e ™—sD on utilise un —utre estim—teur du m—ximum de vr—isem˜l—n™e X l9—lgorithme 4ixpe™t—tion w—ximiz—tion 4 @iwA ‘IR“ ‘IS“ ‘IT“F gette méthode génér—tive permet detrouver le m—ximum de vr—isem˜l—n™e des p—r—mètres d9un modèle pro˜—˜iliste lorsquele modèle dépend de v—ri—˜les l—tentes non o˜serv—˜les @les proportions des modes dumél—ngeAF €lutôt que de trouver le jeu de p—r—mètres du modèle qui m—ximise l— vr—iEsem˜l—n™eD l9espér—n™e de l— logEvr—isem˜l—n™e ™omplétée p—r l— v—ri—˜le ™—™hée estm—ximisée ™onditionnellement à un jeu de p—r—mètres initi—lF gel— ™onduit —u ™—l™ulitér—tif de ™ette espér—n™e @ét—pe iA et des p—r—mètres qui m—ximisent ™ette espér—n™e@ét—pe wAF v— pro™édure est dét—illée d—ns l— se™tion QFP du ™h—pitre Q et d—ns let—˜le—u QFIF v— version sto™h—stique de l9—lgorithme ‘IU“D —ppelée —lgorithme ƒiwD préEvient des m—ximums lo™—ux de vr—isem˜l—n™eF h9—utres —mélior—tions de l9—lgorithmeportent sur l— r—pidité de ™onvergen™e de l9—lgorithme ‘IV“ ‘IW“F h—ns l9—lgorithme 4ixpe™t—tion gondition—l w—ximiz—tion 4 @igwA ‘PH“D l9ét—pe w est rempl—™ée p—r uneét—pe de m—ximis—tion ™onditionnelle des p—r—mètresF gh—que p—r—mètre est m—ximiséindividuellement ™onditionnellement —ux —utres qui sont (xésF f—sé sur le même prinE™ipe que l9—lgorithme igwD l9—lgorithme iw 4 génér—lisé 4 @qiwA ‘IR“ ‘IS“ ‘IT“ estune —ltern—tive employée qu—nd l9ét—pe w est di0™ilement ré—lis—˜leD not—mment sile ™—l™ul des dérivées premières est di0™ileF h—ns ™e ™—sD les p—r—mètres ne sont p—s™eux qui m—ximisent l9espér—n™e de l— logEvr—isem˜l—n™eD m—is n9importe quel jeu dep—r—mètres tel que ™ette espér—n™e soit supérieure à ™elle de l9itér—tion pré™édenteF w—lgré des perform—n™es —ssez moyennesD le ™l—ssi(eur ˜—yésien n—ïf ‘PI“ ‘PP“ ‘PQ“ estsouvent utilisé pour ™omp—rer des méthodes de ™l—ssi(™—tion entre ellesD expérimenterles ensem˜les de ™l—ssi(eurs ‘PR“ ou les pro™essus itér—tifs ‘PS“ @™h—pitre RAF ƒ9—ppuy—ntsur le théorème de f—yesD les prédi™tions de toutes les hypothèses sont pondérées p—rles pro˜—˜ilités — prioriF v9—utre p—rti™ul—rité est de supposer l9indépend—n™e entre lesdes™ripteursF einsiD l— méthode du w—ximum de †r—isem˜l—n™e peut être employée
  • 13. CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DExvi LARTpour estimer les p—r—mètres d9une loi liée à ™h—que des™ripteur indépend—mment ‘PT“Fgette dépend—n™e est restreinte p—r le ™l—ssi(eur eyhi @4 ever—ge yneEhependen™eistim—tor 4 en —ngl—isA ‘PU“ qui ™hoisit un seul des™ripteur dont il estime l— dépend—n™e—ve™ les —utresF ves perform—n™es sont —lors —™™rues p—r r—pport —u ™l—ssi(eur ˜—yésienn—ïfF v9 4 ello™—tion de hiri™hlet v—tente 4 @vheA ‘PV“ est une nouvelle te™hnique issuede l9 4 en—lyse ƒémentique v—tente €ro˜—˜iliste 4 @€vƒeA ‘PW“F gontr—irement à l— méEthode vheD l— méthode €vƒe est limitée p—r son impossi˜ilité à générer de nouve—uxexemplesD ™el— v— à l9en™ontre du prin™ipe des modèles génér—tifsF ges pro™édures sontutilisées en ™l—ssi(™—tion de do™uments qui sont ™l—ssés p—r 4 ™on™ept 4 @un do™umentpouv—nt être —sso™ié à plusieurs ™on™eptsAF v— te™hnique est ˜—sée sur l— ™orrél—tionentre les termes des do™umentsD les do™uments et les ™on™eptsF v— pro˜—˜ilité des do™uEments et des termes qui les ™omposent est fon™tion d9un mél—nge de lois @pro˜—˜ilité des™on™eptsD pro˜—˜ilité de ™h—que terme rel—tivement à ™h—que ™on™eptD et pro˜—˜ilité de™h—que do™ument rel—tivement à ™h—que ™on™eptAF v9inféren™e ˜—yésienneD qui permetde déduire ™h—™une des distri˜utions et l— distri˜ution — posterioriD peut être ee™tuéep—r —ppro™he v—ri—tionnelle ‘PV“D à l9—ide d9un é™h—ntillonn—ge de qi˜˜s ‘QH“D ou p—rprop—g—tion de l9espér—n™e @4 ixpe™t—tion €rop—g—tion 4 en —ngl—isA ‘QI“F ve form—Elisme m—thém—tique se r—ppro™he fortement des modèles de mél—ngeD ™epend—ntD en™l—ssi(™—tion de do™uments ™ette te™hnique trouve de nom˜reux —deptes ét—nt donnéeque les o˜serv—tions @les do™umentsA sont projetées d—ns une ˜—se p—rti™ulière qui ™orErespond —u di™tionn—ire des ™on™eptsF …ne —n—logie —ve™ l— ™l—ssi(™—tion d9o˜jets peutêtre ré—lisée si les o˜jets sont ™ontenus d—ns des im—ges —sso™iées à plusieurs ™l—ssesF ges modèles génér—tifs ont le déf—ut qu9ils né™essitent l— ™onn—iss—n™e de l— loi ™i˜leFin pr—tiqueD une séle™tion su˜je™tive de lois est ee™tuéeD puis un ™ritère de séle™tionpermet de retenir l— loi l— mieux —d—ptée ‘QP“F ve ™ritère le plus utilisé est l— v—lid—tion™roisée ‘QQ“ @év—lu—tions et st—tistiques des erreurs sur plusieurs expérien™esAD m—isd9—utres ™ritères existent ™omme le 4 gritère d9snform—tion d9ek—ike 4 @esgA ‘QR“ ou le4 gritère d9snform—tion ˜—yésien 4 @fsgA ‘QS“F2.2.2 Modèle discriminant v9—ppro™he dière pour le modèle dis™rimin—ntF v— dé(nition de l9—dje™tif 4 dis™riEmin—nt 4 est X 4 ui ét—˜lit ou permet d9ét—˜lir une distin™tion entre des éléments4 @gentre x—tion—l de ‚essour™e „extuelles et vexi™—lesAF einsiD d—ns le ™—dre de l—™l—ssi(™—tion —utom—tique d9o˜jetsD le modèle vise ex™lusivement à l— diéren™i—tiondes ™l—sses entre ellesF …n tel modèle ne dépend p—s de l9org—nis—tion intrinsèque desdonnéesF ƒeules l— m—nière et l— ™—p—™ité à diéren™ier les ™l—sses ™omptentF v— m—Ejorité des méthodes dis™rimin—ntes est ˜—sées sur le prin™ipe du ™—l™ul des ™oe0™ientsdes hyperpl—ns qui sép—rent les ™l—sses entre ellesF v9esp—™e des —ttri˜uts ét—nt s™indép—r les hyperpl—nsD il su0t de déterminer de quelle ™ôté de l9hyperpl—n se situe unexemple pour ™onn—ître s— ™l—sseF eprès un ˜ref invent—ire de ™es méthodes @4 l9en—Elyse his™rimin—nte de pisherD les ƒ†wD l— régression logistiqueD F F F AD nous évoqueronsdes modèles dis™rimin—nts plus singuliers ™omme les rése—ux de neurones et les 4 k pluspro™hes voisins 4F
  • 14. 2.2. CLASSIFICATION SUPERVISÉE xvii v9 4 en—lyse his™rimin—nte de pisher 4 ‘QT“ ‘QU“ ‘QV“ @ou vhe pour 4 vine—r his™riEmin—nt en—lysis 4A f—it p—rtie des méthodes popul—iresF f—sée sur un ™ritère st—tistiquedu se™ond ordreD ™ette te™hniqueD optim—le d—ns le ™—s q—ussienD p—rt du prin™ipe que lesmoments du se™ond ordre sont identiques d9un groupe à l9—utreF v— pro™édure ™onsisteà trouver les ™oe0™ients de l9hyperpl—n qui m—ximisent le r—pport entre l— v—ri—n™einter ™l—sse et l— v—ri—n™e intr— ™l—sseF v— méthode est dét—illée d—ns l— se™tion QFQFIdu ™h—pitre QF …n —utre modèle très ™élè˜re est l— méthode des ƒ†w @4 ƒupport †e™tor w—™hine4A ‘QW“ ‘RH“ qui est dét—illée d—ns l— se™tion QFQFI du ™h—pitre QF ille résulte de l—™om˜in—ison de deux —ppro™hes X l9idée de m—ximiser les m—rges @dist—n™e entre l9hyEperpl—n sép—r—teur et l9exemple le plus pro™heA ‘RI“ ‘RP“ et l9idée des fon™tions noy—ux‘RQ“ ‘RR“ qui déforment l9esp—™e des des™ripteurs et permettent de p—sser des ™—s nonliné—irement sép—r—˜les —ux ™—s liné—irement sép—r—˜lesF sl existe une méthode dite des4 m—rges souples 4 qui tolère une ™ert—ine qu—ntité d9erreurs lors de l— re™her™he del9hyperpl—n optim—l et qui permet de résoudre les ™—s de re™ouvrement entre ™l—sses‘RS“ ‘RT“F €—rmi les méthodes de régressionD l— 4 régression logistique 4 ‘RU“ ‘RV“ ‘RW“ ‘SH“ sedistingue p—r le f—it que l— v—ri—˜le à prédire est une ™l—sseD iFeF une v—leur dis™rèteet non une v—leur ™ontinue ™omme en régression liné—ireF h—ns le ™—s de deux ™l—ssesDl9équ—tion de l9hyperpl—n sép—r—teur s9exprime en fon™tion du log—rithme du r—pport despro˜—˜ilités — posteriori des o˜serv—tionsF hiérentes méthodes ™omme l9—lgorithme dum—ximum de vr—isem˜l—n™e ‘RV“ peuvent —lors être utilisées pour estimer les ™oe0™ientsde l9hyperpl—n sép—r—teurF gette méthode — pour —v—nt—ge de ne p—s être p—r—métriqueet de modéliser dire™tement une pro˜—˜ilitéF in rev—n™heD elle ne s9—pplique qu9—uxdonnées s—ns v—leur m—nqu—ntes et elle est sensi˜le —ux individus hors normeF ges trois méthodes @vheD ƒ†wD régression logistiqueA sont développées d—ns le™—s ˜in—ireD iFeF seulement deux ™l—sses sont ™onsidéréesF gomment f—ire d—ns le ™—sde plusieurs ™l—sses c heux prin™ip—les —ppro™hes existentF v— méthode 4 oneEversusE—ll4 ™onsiste à —ttri˜uer un ™l—ssi(eur à ™h—que ™l—sse @le ™l—ssi(eur dis™rimine l— ™l—sse™onsidérée de toutes les —utresAF v— ™l—sse —ttri˜uée à un exemple test est l— plus proE˜—˜le —u sens des ™l—ssi(eursF v9—utre méthodeD —ppelée 4 oneEversusEone 4D ™onsisteà ét—˜lir un ™l—ssi(eur pour ™h—que ™ouple de ™l—sses possi˜leF v— ph—se de test ét—ntsimil—ire à l— méthode oneEversusE—llF h—ns ‘SI“D le ™—s des ™l—sses non m—jorit—iresest tr—itéD iFeF le ™—s où —près l— ™l—ssi(™—tion de l9exemple testD plusieurs ™l—sses sontéquipro˜—˜lesF …ne méthode ‘SP“ propose de résoudre le pro˜lème en s9—ppuy—nt surles te™hniques employées pour les ™odes ™orre™teurs d9erreursF …ne —utre propose l9utiElis—tion des ƒ†w d—ns le ™—s multiE™l—sses en ™h—nge—nt le ™ritère d9optimis—tion en un™ritère m—tri™iel ‘SQ“F …ne m—jorité de méthodes de ™l—ssi(™—tion ˜—sées sur les fon™tions noy—ux est préEsentée d—ns le livre 4 ve—rning with uernel 4 ‘RT“F v— méthode uEp™— @4 uernel €rin™ip—lgomponent en—lysis 4A ‘SR“ ‘SS“ y (gure not—mmentF gette te™hnique n9est p—s un moEdèle de ™l—ssi(™—tion à p—rt entièreD m—is un moyen d9—méliorer les perform—n™es de™l—ssi(™—tion des modèles liné—ires déjà exist—ntF v9idée est simple X en —sso™i—nt lesfon™tions noy—ux —ve™ une 4 —n—lyse en ™ompos—nte prin™ip—le 4 @€geA ‘ST“D l9esp—™edes des™ripteurs est tr—nsformé tel que des groupes non liné—irement sép—r—˜les d—ns
  • 15. CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DExviii LARTl9esp—™e de dép—rt puissent le devenir d—ns l9esp—™e d9—rrivéeF hès que l9on dispose d9un™l—ssi(eur dis™rimin—nt liné—ireD à l9inst—r du modèle vheD de l— régression logistiqueDou de n9importe quel ™l—ssi(eur à m—ximum de m—rgeD —lors l— méthode uEp™— peut être—ppliquée en —mont et permet —insi de p—sser d9un ™l—ssi(eur liné—ire à un ™l—ssi(eurnon liné—ireF ves dét—ils de l— méthode sont donnés d—ns l— se™tion QFQFI du ™h—pitre QF ves premiers rése—ux de neurones —™™omplis @on p—rle —lors de rése—ux multi™ou™hesA ‘SU“ ‘SV“ ‘SW“ sont —pp—rus à p—rtir de IWVS et sont utilisés depuis en ™l—sEsi(™—tion —utom—tique d9o˜jetsF …n neurone prend en entrée les sorties des neuronespré™édentsF v— sortie est une fon™tionD —ppelée 4 fon™tion d9—™tiv—tion 4D d9une ™om˜iEn—ison liné—ire des entréesF €lusieurs neurones peuvent être mis en p—r—llèle et plusieurs™ou™hes de neurones peuvent être ™onsidéréesF …ne ™—r—™téristique import—nte d9un réEse—u de neurones est le ™ompromis entre l— ™omplexité de son —r™hite™tureD dé(nie p—rle nom˜re de ™ou™hes et le nom˜re de neurones p—r ™ou™heD et entre s— ™—p—™ité d9—pEprentiss—ge qui est liée —u sur —pprentiss—geF xotons que les rése—ux de neurones sontsujets —ux sur —pprentiss—gesD il est —lors né™ess—ire de supprimer des ™onnexions @—lEgorithme 4 optim—l ˜r—in d—m—ge4 ‘TH“ ou —lgorithme 4 optim—l ˜r—in surgeon 4 ‘TI“AF…ne fois que l9—r™hite™ture du rése—u est ™hoisieD l9—pprentiss—ge ™onsiste à trouver lesv—leurs des poids de l— ™om˜in—ison liné—ire des entrées de ™h—que neuroneF €our ™el—Dune minimis—tion de l— fon™tion de ™oût @souvent l9erreur qu—dr—tiqueAD qui déterminel9o˜je™tif à —tteindreD est ee™tuéeF v— diéren™e entre les méthodes proposées portesur le ™hoix de l— fon™tion ™oûtD sur l— m—nière de minimiser ™ette fon™tionD sur le ™hoixde l9—r™hite™ture du rése—u ou sur le ™hoix de l— fon™tion d9—™tiv—tionF €—r exempleDd—ns ‘SV“D une des™ente de gr—dient est ee™tuéeD l9origin—lité ét—nt l— f—çon de ™—l™ulerle gr—dient de l— fon™tion de ™oûtF xotons que l9—n—lyse dis™rimin—nte de pisher ou lesƒ†w liné—ires sont des rése—ux de neurones à un seul neurone dont les poids —e™tés à™h—que entrée ™orrespondent —ux ™oe0™ients de l9hyperpl—n sép—r—teurF v— méthode des 4 K plus pro™hes voisins 4 ‘TP“ dière des —utres modèles dis™rimiEn—nts p—r l9—˜sen™e d9hyperpl—ns sép—r—teursD l9unique idée génér—tri™e reste ™epend—ntd9—e™ter une ™l—sse à un individu in™onnuF v— pro™édure est très simple X il f—ut trouEverD d—ns l9ensem˜le d9—pprentiss—geD l— ™l—sse m—jorit—ire p—rmi les K plus pro™hesvoisins de l9exemple à ™l—sserF gel— p—sse p—r l— dé(nition d9une dist—n™e entre o˜jets‘TQ“D qui dépend de l— n—ture des des™ripteurs de l9o˜jetF €—r exempleD une dist—n™e euE™lidienne peut ™onvenir pour des des™ripteurs pren—nt leur v—leur d—ns l9ensem˜le desréelsD m—is d—ns le ™—s de des™ripteurs formés de densités de pro˜—˜ilité une dist—n™ede fh—tt—™h—ryy— ‘TR“ ou de uull˜—™kEvei˜ler ‘TS“ est préfér—˜leF v— di0™ulté se trouved—ns l— pro™édure de re™her™he des plus pro™hes voisinsD not—mment si l9ensem˜le d9—pEprentiss—ge est volumineuxD entr—în—nt des longueurs d—ns le temps de ™—l™ulF €our™el— des —lgorithmes de re™her™he ont été développés ‘TT“ ‘TU“D leur prin™ipe ét—nt desto™ker les exemples pro™hes en dist—n™e et de pro™éder p—r regroupement hiér—r™hiquedes donnéesF €—rmi les méthodes dis™rimin—ntesD l— méthode ƒ†w est ™elle qui remporte le plusfr—n™ su™™ès d—ns le dom—ine de l— vision p—r ordin—teurF gel— est prin™ip—lement dû—u f—it que le modèle de ™l—ssi(™—tion est non liné—ireD produis—nt de très ˜onnes perEform—n™es de ™l—ssi(™—tion pour l— plup—rt des expérien™esF gepend—ntD les ƒ†w sontdépend—nts d9un gr—nd nom˜re de p—r—mètres liés à l— souplesse des m—rgesD l— dyE
  • 16. 2.2. CLASSIFICATION SUPERVISÉE xixn—mique de pro˜—˜ilis—tionD et le ™hoix du noy—uD p—r ™onséquentD ™ert—ins dom—iness™ienti(ques préfèrent l9emploi de modèles plus —utonomes ™omme les régressions loEgistiques @™9est le ™—s des études st—tistiques d—ns le dom—ine ˜—n™—ireD d—ns ™elui des—ssur—n™es ou des sond—gesD et en méde™ineAF2.2.3 Modèle hybride : arbres de classication hes modèles hy˜rides existentF veur dém—r™he s9—ppuie à l— fois sur les —ppro™hesgénér—tives et dis™rimin—ntesF €—rmi euxD on trouve les modèles ˜—sés sur les —r˜resde ™l—ssi(™—tion @ou de dé™isionAF €remièrementD l— méthode est fondée sur un é™h—nEtillonn—ge de l9esp—™e des —ttri˜uts à l9—ide d9hyper volumes d9é™h—ntillonn—ge de t—illediérente et de dimension (nie ou in(nieF v9é™h—ntillonn—ge dé™rit l9o™™up—tion de l9enEvironnement et dépend dire™tement de l— forme des nu—ges de points des diérentes™l—ssesF ejoutons queD ™omme pour un histogr—mmeD le nom˜re d9individus est ™onnud—ns ™h—que volume d9é™h—ntillonn—geD ™e qui —utorise l— génér—tion —lé—toirement desdonnées d—ns ™es volumes élément—iresF ge™i permet de nous positionner d—ns le ™—sgénér—tifF heuxièmementD les volumes é™h—ntillonnés sont o˜tenus p—r dis™rimin—tionssu™™essives de sous ensem˜les de donnéesD le prin™ipe ét—nt de s™inder un volume del9esp—™e en deux p—rties homogènes en ™l—sseF gette s™ission n9— qu9un seul o˜je™tif Xsép—rer les ™l—sses entre ellesF gel— nous positionne d—ns le ™—s dis™rimin—ntF …n —r˜re de ™l—ssi(™—tion ™omporte des noeuds qui sont —sso™iés à des règles dedé™isionF v— tot—lité forme un ensem˜le de ™hemins qui p—rtent du noeud prin™ip—l versles noeuds termin—ux —uxquels sont —ttri˜ués des ™l—ssesF …n noeud donné renvoie versdes noeuds (ls en fon™tion de l— règle de dé™ision (xéeF ge même noeud est engendrép—r un noeud p—rentF ve prin™ipe de ™onstru™tion d9un —r˜re repose sur l— s™issiond9un groupe d9exemples pour un des™ripteur donnéF eu noeud ™onsidéréD l— meilleure—sso™i—tion entre un des™ripteur et une v—leur de ™oupureD est ™elle qui m—ximise le g—ind9inform—tionF eutrement ditD l— s™ission doit donner des groupes qui sont homogènesen ™l—ssesF in pr—tiqueD ™h—que v—leur de ™oupure est testée pour ™h—que des™ripteurDpuis le ™ouple formé p—r le des™ripteur et l— v—leur de ™oupure qui m—ximise le g—ind9inform—tion est retenu et —sso™ié —u noeud ™onsidéréF …n noeud est ™hoisi ™ommeét—nt un noeud (n—l si son nive—u d9 4 impureté 4 est f—i˜leD iFeF si une ™l—sse dominel—rgementF …ne fois l9—r˜re ™onstruitD un exemple test p—r™ourt l9—r˜re jusqu9—u noeudtermin—l qui dé(nit l— ™l—sse —ttri˜uéeF ve form—lisme et les dét—ils m—thém—tiquessont présentés d—ns l— se™tion QFRFI du ™h—pitre Q pour le ™—s usuel de l9—pprentiss—gesuperviséF ves méthodes ™onnues dièrent p—r le ™hoix du ™ritère de g—in d9inform—tionF gerEt—ins ™her™hent à m—ximiser le ™ritère de qini ‘TV“ @méthode ge‚„ X 4 gl—ssi(™—tionend ‚egression „rees 4AD d9—utres pré™onisent l9entropie de ƒh—nnon ‘TW“ ‘UH“ @méthodeshQ et gRFSAD et ™ert—ines méthodes proposent d9utiliser un test st—tistique fondé surl— loi du χ2 @méthode gresh ‘UI“ X 4 griEsqu—re eutom—ti™ snter—™tion hete™tion 4et méthode …iƒ„ ‘UP“ X 4 ui™kD …n˜i—sedD i0™ientD ƒt—tisti™—l „ree 4AF v— méthode…iƒ„ permet de ™onstruire un —r˜re de dé™ision plus r—pidementF h—ns …iƒ„Dle meilleur des™ripteur est d9—˜ord ™hoisi en ™om˜in—nt une —n—lyse de l— v—ri—n™e @4exy†e 4A —ve™ le test du χ2 ou le test de vevene ‘UQ“ @en fon™tion de l— n—ture disE
  • 17. CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DExx LART™rète ou ™ontinue du des™ripteurF xotons que gRFS est une évolution dire™te de shQD les—mélior—tions port—nt sur l— gestion des données numériquesD sur l— prise en ™omptedes données m—nqu—ntes et sur l— r—pidité d9exé™utionF €lutôt que de ™her™her l— v—leur de ™oupure sur ™h—que des™ripteur indépend—mEmentD des méthodes proposent des ™ritères de 4 sép—r—tion o˜liques 4 ‘UR“ qui s9—ppuientsur un modèle de ™l—ssi(™—tion à plusieurs des™ripteursF ve modèle ™hoisi peut être detype ƒ†w ‘US“ ‘UT“ ou s9—ppuyer sur l9—n—lyse dis™rimin—nte liné—ire de pisher ‘UU“F uelques p—piers —˜ordent les —r˜res de ™l—ssi(™—tion d—ns le ™—dre de l— logique4 )oue 4F €—r exempleD un —r˜re est ™onstruit à l9—ide de l— méthode ge‚„D puis desrègles de dé™isions )oues sont él—˜orées à p—rtir des frontières des é™h—ntillons d9hypervolumes ‘UV“F ve même pro™édé est employé pour l9—lgorithme shQ ‘UW“F €our d9—utresexemples ‘VH“D l— logique )oue intervient d—ns le ™—l™ul des v—leurs de ™oupureF €lutôtque d9—voir une s™ission nette et pré™iseD l— frontière est in™ert—ine telle que le degréd9—pp—rten—n™e à un groupe dépend de l— dist—n™e entre l9exemple ™onsidéré et l— v—leurde ™oupure ™onsidéréeF ves règles de dé™ision sont —lors dire™tement liées à l9—ppli™—tion™onsidérée ‘VI“F v9un des déf—uts m—jeurs des —r˜res de ™l—ssi(™—tion est leur disposition à ne ™onsiEdérer que les ™l—sses m—jorit—irement représentées d—ns l9ensem˜le d9—pprentiss—geF €—rexempleD l— méthode ge‚„ privilégie les ™l—sses domin—ntes d9un jeu de données disEtri˜uées inég—lement ‘VP“F ƒi le modèle d9une ™l—sse sousEreprésentée est m—l év—luéD—lors ™ette ™l—sse est souvent ™l—ssée p—rmi l— ™l—sse m—jorit—ire de l9ensem˜le d9—pEprentiss—geF €our remédier à ™e pro˜lèmeD le ™ritère de s™ission peut être —mélioréen ™hoisiss—ntD p—r exempleD une entropie dé™entrée ‘VQ“D ou en ee™tu—ntD soit un surEé™h—ntillonn—ge de l9ensem˜le sousEreprésenté ‘VR“D soit un sousEé™h—ntillonn—ge de l9enEsem˜le surEreprésenté ‘VS“F hes tr—v—ux ‘TV“ ont montré qu9—près ™onstru™tionD il est souvent né™ess—ire d9él—guerl9—r˜reF in eetD lors de l9—pprentiss—geD une ™ontr—inte permet de déterminer si unnoeud est r—isonn—˜lement homogène @si tel est le ™—sD —lors le noeud est un noeudtermin—lAF h—ns le ™—s où ™ette ™ontr—inte est trop forte et qu9il y — du re™ouvremententre ™l—ssesD ™ert—ins volumes élément—ires sont insigni(—nts et n9impliquent qu9unseul exempleF h—ns ™e ™—sD il —pp—r—ît des phénomènes de surE—pprentiss—ge et de surEé™h—ntillonn—ge de l9esp—™e des des™ripteursF geuxE™i sont résolus grâ™e à l9él—g—geF slexiste deux gr—ndes f—milles de méthodes ‘VT“ ‘VU“ X soit l9—r˜re o˜tenu est simpli(éen ™oup—nt toutes les ˜r—n™hes d9un noeudD soit un noeud est rempl—™é p—r l9un dessousE—r˜res qui en des™endD les exemples des sousE—r˜res disp—rus ét—nt re™l—ssésF sl est génér—lement —dmis qu9—u™une de ™es propositions @™hoix du ™ritère de s™isEsionD —r˜res o˜liquesD logique )oueD él—g—ge F F F A ne dev—n™e une —utre de m—nière sysEtém—tique en termes de perform—n™e de ™l—ssi(™—tionF gel— dépend du jeu de donnéesemployéD de l— n—ture dis™rète ou ™ontinue des v—ri—˜lesD de l9org—nis—tion intrinsèquedes ™l—sses d—ns l9esp—™e des des™ripteursD du f—it d9être en gr—nde dimension ou nonDde l— t—ille de l9ensem˜le d9—pprentiss—geD de l— distri˜ution des ™l—sses F F F
  • 18. 2.3. CLASSIFICATION NON SUPERVISÉE xxi2.3 Classication non supervisée in —pprentiss—ge non superviséD seules les v—leurs données p—r les des™ripteurs sonto˜serv—˜lesF ves exemples ne disposent d9—u™un étiquet—ge et le nom˜re de ™l—sses estin™onnuF gel— ™onstitue les prin™ip—les interrog—tions X ™om˜ien y —EtEil de ™l—sses c itDen suppos—nt le nom˜re de ™l—sses (xéD ™omment ét—˜lir un ™l—ssi(eur c v— première question trouve peu de réponseF ve nom˜re de ™l—sses réellement o˜serEvées est di0™ilement détermin—˜le s—ns inform—tions — priori et il dépend de l9—ppli™—Etion ™onsidéréeF v— di0™ulté se résume d—ns le pro˜lème suiv—nt X ™omment diéren™ierle ™—s de plusieurs regroupements de données qui ™orrespondent à plusieurs ™l—sses etle ™—s de regroupements qui ™orrespondent à des modes d9une seule ™l—sseF ƒ—ns —uE™une inform—tion — priori ou ™ontextuelleD ™el— sem˜le impossi˜leF in rev—n™heD des™ritères de qu—lité mesurent l— pertinen™e du ™hoix du nom˜re de ™l—sses ‘VV“F €—rmi™es ™ritèresD ™ert—ins s9—ppuient sur l9indi™e fsg @4 f—yesi—n snform—tion griterion 4A‘QS“ ou sur le ™ritère esg @4 ek—ike9s snform—tion griterion 4A ‘VW“D ou en™ore sur des™ritères st—tistiques de dist—n™es ‘WH“ ‘WI“ F F F in(nD d9—utres méthodes sont ˜—sées surle prin™ipe de l— v—lid—tion ™roisée ‘WP“F v— deuxième question trouve ˜e—u™oup de solutionsF ves premiers tr—v—ux ‘WQ“ ‘WR“en regroupement non supervisé de données ™onduisent à des méthodes de ™l—ssi(™—tionhiér—r™hiquesF ve prin™ipe est de ™onsidérer l— p—rtition à une seule ™l—sse qui ™omprendtoutes les o˜serv—tions jusqu9à l— p—rtition où ™h—que o˜serv—tion est une ™l—sseF intresles deux extrémitésD l9utilis—teur doit ™hoisir l— p—rtition l— plus ré—listeF €our ™el—D les™ritères de qu—lité qui mesurent l— pertinen™e du ™hoix du nom˜re de ™l—sses sont utilisés‘VV“ ‘QS“ ‘VW“ ‘WH“ ‘WI“F ge type de ™l—ssi(™—tion hiér—r™hique est simil—ire —ux —r˜res de™l—ssi(™—tionsF freim—n ‘WS“ propose une méthode d9—pprentiss—ge non supervisé pourles —r˜res de ™l—ssi(™—tionF v9idée est origin—le X p—rt—nt d9un ensem˜le de points s—nsl—˜el qui ™onstitue l— première ™l—sseD une se™onde ™l—sse est ™réée —rti(™iellement surl— ˜—se d9un tir—ge —lé—toire des des™ripteurs de l— première ™l—sseF in ™onstruis—ntun —r˜re qui sép—re les deux ™l—ssesD on espère que l— première ™l—sse ser— s™indée engroupes homogènes qui ™onstituent les 4 ™lusters 4 souh—itésF v— te™hnique ™onsisteensuite à déterminer quels sont les groupes qui sont reliés entre euxD p—r exemple vi—une m—tri™e de proximité ‘WT“F €eu d9—rti™les ont été pu˜liés à ™e sujet et le pro™édé estdi0™ilement —ppli™—˜le pour les ™—s de données dont l9org—nis—tion sp—ti—le n9est p—strivi—leF €—rmi les modèles de mél—ngesD l— méthode l— plus ™élè˜re d9—pprentiss—ge non suEpervisé est l— méthode des 4 uEmoyennes 4 ‘WU“ ‘WV“F €—rt—nt d9un nom˜re de pointsd9initi—lis—tion ég—l —u nom˜re de regroupements souh—itésD on ™her™he simplementà regrouper les exemples en groupes homogènes —u sens des des™ripteursF v— méEthode ™onsiste à étiqueter itér—tivement les individus en fon™tion de leur dist—n™e —ve™les points d9initi—lis—tion qui ™h—ngent d9une itér—tion à l9—utreF hivers modi(™—tions™ontri˜uent à l9—™™élér—tion de l9—lgorithme ‘WW“ ou ™her™hent l— meilleure initi—lis—tion‘IHH“F v— méthode des 4 uEmoyennes 4 est étendue à l— logique )oue à l9—ide l9—lgoErithme pgw @4 puzzy gEwe—ns 4A ‘IHI“F eprès —voir regroupé les données p—r p—quetsà l9—ide de l9—lgorithme des uEmoyennesD l9—spe™t )ou se ™—r—™térise p—r l— possi˜ilitéd9—ttri˜uer plusieurs ™l—sses p—r élément ‘IHP“F h9—utres méthodes mél—ngent l9—lgoE
  • 19. CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DExxii LARTrithme pgw —ve™ des —ppro™hes )oues de l9estim—tion du m—ximum de vr—isem˜l—n™e‘IHQ“F v9—lgorithme iw ‘IR“ ‘IS“ ‘IT“ et ses dérivées ƒiwD igwD qiw ‘IU“ ‘IV“ ‘IW“‘PH“ ™onstituent l9extension pro˜—˜iliste des 4 uEmoyennes 4F sls permettent de trouverles proportions et les p—r—mètres des modes d9une loi ™i˜leF w—isD ™ontr—irement —u ™—sde l9—pprentiss—ge supervisé qui ™onsidère que ™h—que ™l—sse peut être modélisée p—run mél—nge de loisD en —pprentiss—ge non supervisé une ™l—sse ™orrespond à l9un desmodes du mél—ngeF v9—pprentiss—ge ™onsiste don™ à —pprendre les p—r—mètres des lois de™h—que ™l—sse —insi que les pro˜—˜ilités — priori de f—çon à m—ximiser l— vr—isem˜l—n™edes donnéesF in(nD les rése—ux de neurones possèdent —ussi leur version de ™l—ssi(™—tion nonsuperviséeF sniti—lisés p—r les tr—v—ux de qross˜erg ‘IHR“D les v† @4 ve—rning †e™toru—ntiz—tion 4A sont un ™—s p—rti™ulier des rése—ux de neuronesF v— méthode qui enrésulte @ƒyw pour 4 ƒelfEyrg—niz—tion w—p 4 ou en™ore —ppelée les 4 g—rtes de uoEhonen 4A ‘IHS“ ‘IHT“ ‘IHU“D forme un rése—u ™omposé de deux ™ou™hesD l9une pour lesentréesD l9—utre qui dé™rit l9org—nis—tion des neurones de m—nière topologiqueF vors del9—pprentiss—geD les neurones ™i˜les de l— se™onde ™ou™he for™ent leurs voisins à modi(erleurs poids en f—veur de l9exemple ™on™ernéF pin—lementD les poids dé™rivent l— densitéet l— stru™ture de l— rép—rtition des ve™teurs d9entréeF v9utilis—tion de l9une ou l9—utre de ™es méthodes dépend de l9—ppli™—tion visée et del9org—nis—tion intrinsèques des données d—ns l9esp—™e des des™ripteursF he m—nière géEnér—leD l9—lgorithme des uEmoyennes est le plus utiliséD pour s— simpli™ité et s— r—piditéDm—is —ussi ™—r il n9est p—s sujet à —ux sou™is d9optimis—tionsF2.4 Classication faiblement supervisée in ™l—ssi(™—tion f—i˜lement superviséeD il existe une in™ertitude sur l— ™l—sse desexemples d9—pprentiss—geF gette in™ertitude se ™—r—™térise p—r un ve™teur dont les ™omEpos—ntes sont les pro˜—˜ilités de ™l—ssi(™—tion — priori de ™h—que ™l—sseF v9ensem˜led9—pprentiss—ge est don™ ™onstitué des exemples d—ns l9esp—™e des des™ripteurs et desve™teurs de pro˜—˜ilité de ™l—ssi(™—tion —sso™iés @™fF équ—tion PFIAF €eu de p—piers —˜ordent le ™—s de l9—pprentiss—ge f—i˜lement supervisé sous ™e forEm—lisme pro˜—˜ilisteF ve ™—s le plus popul—ireD le plus tr—itéD et —y—nt f—it l9o˜jet d9unem—jorité de pu˜li™—tionsD est le ™—s p—rti™ulier des —nnot—tions qui indiquent quelles™l—sses sont possi˜les de m—nière équipro˜—˜leF €—r exempleD on p—rle du ™—s 4 préEsen™eG—˜sen™e 4 en index—tion d9im—ges X ét—nt donnée une ˜—se d9im—ges dont l—présen™e ou l9—˜sen™e de 4 ™on™epts 4 @™l—ssesA est ™onnue d—ns ™h—que im—ge ‘IHV“‘IHW“D un modèle de ™l—ssi(™—tion des o˜jets doit être ét—˜liF hes modèles pro˜—˜ilistesgénér—tifs s9—ppuy—nt sur l9—lgorithme iw ‘P“ ‘IIH“ ‘IHV“ ‘IHW“ ou sur les ™h—mps dew—rkov —lé—toires g—ussien ‘III“ ont été développésD m—is —ussi des modèles dis™rimiEn—nts qui emploient des te™hniques de type ƒ†w ‘IIP“ ‘IIQ“D ou en™ore des modèles˜—sés sur du 4 ˜oosting 4 ‘IIR“ ‘IIS“ @voir ™h—pitre R pour le ˜oostingAF ves diéren™esentre ™es méthodes portent sur le nom˜re de ™on™epts tr—ités d—ns les im—gesD sur lenom˜re d9exemples d9—pprentiss—geD sur l— ™omplexité des im—gesD et sur les hypothèsesretenues rel—tivement —ux tr—nsform—tions des fr—gments d9une im—ge à l9—utreF €—r
  • 20. 2.5. CLASSIFICATION SEMI-SUPERVISÉE xxiiiexempleD ™ert—ins ™onsidèrent que les régions d9intérêts sont ™onst—ntes en é™helle m—isqu9elles su˜issent des rot—tions et des tr—nsl—tions ‘IIT“ ‘IIU“D d9—utres ‘IIV“ ‘IIW“D sousles mêmes hypothèsesD ex—minent les inter—™tions sp—ti—les entre fr—gment d9im—ges —(nde p—rf—ire le modèleF hes modèles génér—tifs plus ™omplets ‘IPH“ ‘IPI“ permettent delo™—liser l9o˜jet tout en pren—nt en ™ompte s— tr—nsl—tionD s— rot—tion et son é™helled—ns les im—ges d9—pprentiss—geF e l9inst—r de l9—pprentiss—ge semiEsuperviséD ‚osen˜erg‘IPP“ montre qu9en —jout—nt des im—ges —nnotées en présen™eG—˜sen™e @f—i˜lement suEperviséeA à des im—ges —nnotées de m—nière pré™ise @superviséeAD —lors les perform—n™esde ™l—ssi(™—tion peuvent être —mélioréesF ves mêmes modèles génér—tifs sont utilisés ensegment—tion d9im—ges ‘IPQ“ ou pour l— déte™tion de ™on™epts d—ns des vidéos —nnotées‘IPR“F h9—utres exemples p—rti™uliers proposent un —pprentiss—ge f—i˜lement superviséF gesle ™—s d9o˜jets d9—pprentiss—ge dire™tement —nnotés p—r des experts ‘IPS“D ou en™oreDdes —ppli™—tions en télédéte™tionD et not—mment en interprét—tion d9im—ges ‘VI“F ve™—s de l9—™oustique h—lieutique est un ™—s typique d9—pprentiss—ge f—i˜lement supervisé‘IPT“D il est étudié d—ns l— p—rtie ssF in(nD ™ert—ins ™—s d9—sso™i—tions de ™l—ssi(eurs né™essitent l9utilis—tion d9un —pEprentiss—ge f—i˜lement superviséF €—r exempleD en —pprentiss—ge semiEsupervisé itér—tif‘Q“D les p—r—mètres du ™l—ssi(eur d9une itér—tion donnée sont estimés sur l— ˜—se despro˜—˜ilités de ™l—ssi(™—tion issues de l9itér—tion pré™édenteF gomme d—ns l— plup—rt des pro˜lèmes de ™l—ssi(™—tionD il n9existe p—s un modèle quiest meilleur que les —utresD ™h—que jeu de données ™orrespond à un type de ™l—ssi(euren fon™tion des ses ™—r—™téristiques propresF he plusD en ™l—ssi(™—tion f—i˜lement suEperviséeD il existe l— notion de ™omplexité de l9ensem˜le d9—pprentiss—geD qui est dé(nitp—r l— n—ture des pro˜—˜ilités de ™l—ssi(™—tion — prioriF ƒi ™es pro˜—˜ilités — priori sontf—i˜lesD —lors le jeu de données est ™omplexe ™—r les inform—tions sur les ™l—sses sont peuinform—tivesD en rev—n™heD —ve™ un — priori fortD le jeu de données d9—pprentiss—ge estpeu ™omplexe du f—it de l— pré™ision forte des inform—tions liés —ux l—˜elsF ves tr—v—ux™ités pré™édemment ne font p—s d9étude des réponses des ™l—ssi(eurs rel—tivement àl— ™omplexité des l—˜elsD l9idée ét—nt plutôt de trouver le meilleur ™l—ssi(eur pur unensem˜le d9—pprentiss—ge donnéeF h—ns le ™h—pitre SD nous —pportons des éléments deréponsesF2.5 Classication semi-supervisée get ét—t de l9—rt est l—rgement inspiré du livre de gh—pelle ‘Q“ et de l9étude ˜iE˜liogr—phique de hu ‘IPU“F gepend—ntD leurs ét—ts de l9—rt ne font p—s mention desméthodes d9—pprentiss—ge semiEsupervisé utilisées pour l— ™l—ssi(™—tion des données™orrélées @tr—du™tion de l9—ngl—is 4 rel—tion—l d—t— 4AD dont les prin™ip—les —ppli™—tionssont l— ™l—ssi(™—tion de p—ges we˜F v9—pprentiss—ge semiEsupervisé est utilisé qu—nd peu de données l—˜élisées sont disEponi˜lesF h—ns ™e ™—sD il — été montré que l9introdu™tion de données s—ns l—˜el d—nsl9ensem˜le d9—pprentiss—ge peut —méliorer les perform—n™es de ™l—ssi(™—tion ‘Q“F sl existeplusieurs f—milles de méthodesD à s—voirD les modèles génér—tifsD les modèles qui s9—pE
  • 21. CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DExxiv LARTpuient sur des gr—phesD les modèles dis™rimin—nts et les modèles itér—tifs qui s9—ppuientsur n9importe quel ™l—ssi(eur de ˜—seF v— première f—mille de méthodes regroupe les modèles génér—tifs ‘Q“F ve modèleemployé usuellement se ˜—se sur l9—lgorithme iwF ve prin™ipe est d9estimer l— denEsité de pro˜—˜ilité jointe des o˜serv—tions et des l—˜elsF gomme en ™l—ssi(™—tion nonsupervisée @™fF l— se™tion PFQ du ™h—pitre PAD on suppose que ™h—que ™l—sse suit une denEsité de pro˜—˜ilité p—r—métriqueD dont on estime les p—r—mètresF w—is ™ontr—irement—u ™—s non superviséD les ™l—sses sont ™onnuesD il su0t don™ de ™onn—ître un exemplel—˜élisé p—r ™l—sse pour déduire les p—r—mètres —sso™iés à ™h—™une des ™l—ssesF xouspouvons ™iter les —rti™les de xig—m qui proposeD vi— l9—lgorithme iwD d9estimer lesp—r—mètres de modèles f—yésien n—ïf q—ussien d—ns le ™—s mono mod—l ‘IPV“ ou multimod—l ‘IPW“D et dont les méthodes sont regroupées d—ns le ™h—pitre 4ƒemiEsupervisedtext ™l—ssi(™—tion using iw4 du livre 4ƒemiEsupervised le—rning4 ‘Q“F xotons que l9—lEgorithme génér—tif d9—pprentiss—ge f—i˜lement supervisé de l— se™tion QFPFQ du ™h—pitreQ est l9un de ™es modèles génér—tifs qui peut être —ppliqué —u ™—s de l9—pprentiss—gesemiEsuperviséF ges modèles possèdent l9—v—nt—ge d9—voir ˜e—u™oup été étudiés d—nsl— littér—ture et d9être —ppré™iés pour leur stru™ture pro˜—˜ilisteF in rev—n™heD il estdi0™ile d9év—luer l— justesse des modèles génér—tifs et il f—ut ™onn—ître l— loi ™i˜le pour™h—que jeux de donnéesF he plusD l9—lgorithme iw est sujet à l— question des minim—slo™—ux et ™ert—ines org—nis—tions intrinsèques des données ™onduisent l9—lgorithme versde m—uv—ises solutions ‘IQH“F v— deuxième gr—nde f—mille de modèles est l9—ppro™he dis™rimin—nteF €—rmi les méEthodes dis™rimin—ntesD l— méthode des m—™hines à ve™teurs de support semiEsuperviséeest l— plus utilisée ‘Q“F in —ngl—isD on trouve les termes 4 semiEsupervised ƒ†w 4@ƒQ†wA ou en™ore 4 „r—nsdu™tive ƒ†w 4 @„ƒ†wAF v— méthode ™onsiste à trouverles ™oe0™ients de l9hyperpl—n qui sép—re les ™l—sses entre elles et tel que l— m—rge soitm—xim—le @™fF l— se™tion QFQ du ™h—pitre QAF €—r r—pport à l9—pprentiss—ge superviséDun terme de régul—ris—tion est —jouté d—ns l9équ—tion d9optimis—tionF geluiE™i tient™ompte des données non l—˜éliséesF ves premières propositions ‘IQI“ m—nqu—ient dero˜ustesseD not—mment visEàEvis de l— qu—ntité d9exemples s—ns l—˜elF to—™hims ‘IQP“propose l— première version ro˜usteF h9—utres p—piers proposent des —mélior—tionsD™omme p—r exempleD une —d—pt—tion —u ™—s multiE™l—sses ‘IQQ“D un —lgorithme r—pidepour les ƒQ†w liné—ires ‘IQR“D une dyn—mique de pro˜—˜ilis—tion g—ussienne à l— pl—™ed9une dyn—mique liné—ire ‘IQS“ F F F w—lgré un form—lisme m—thém—tique —ppré™i—˜le etde ˜onnes perform—n™esD not—mment pour les jeux de données pour lesquels les ƒ†wsupervisés sont très perform—ntsD ™ette méthode reste sujette —ux points optim—ux loE™—ux et donne des perform—n™es modestes pour ˜e—u™oup de jeux de donnéesF gh—pelleDƒindhw—ni et ueerthi ‘IQT“D proposent une ˜i˜liogr—phie et ™omp—re les résult—ts desméthodes d9—pprentiss—ge semiEsupervisé qui emploient les ƒ†wF ves modèles ˜—sés sur les gr—phes de simil—rité ™onstituent une —utre gr—nde f—millede méthodes d9—pprentiss—ge semiEsupervisé ‘Q“F sl existe plusieurs f—çons de ™onstruireun gr—phe ‘IQU“ ‘IQV“ ‘IQW“F sm—ginez des noeuds de l9esp—™e reliés entre eux p—r des˜r—n™hesF ves noeuds représentent les exemples —ve™ et s—ns l—˜elsD t—ndis que les˜r—n™hes représentent les simil—rités entre exemplesF v9—lgorithme des kEplusEpro™hesEvoisins ‘TP“ ‘TT“ ‘TU“ peut être vu ™omme un ™—s p—rti™ulier des gr—phes de simil—ritéD l—
  • 22. 2.5. CLASSIFICATION SEMI-SUPERVISÉE xxv™l—sse —ttri˜uée ™orrespond—nt à l— ™l—sse m—jorit—ire des k exemples l—˜élisés les plussimil—iresF eve™ les gr—phes de simil—ritéD s9—joute l— notion de dist—n™e entre donnéess—ns l—˜elF €—r exempleD le jeu des simil—rités f—it qu9une o˜serv—tion s—ns l—˜elD éloignéeen dist—n™e de tout exemple l—˜éliséD peut être ™onsidérée ™omme pro™he de l9un d9entreeux p—r l9intermédi—ire d9une —utre o˜serv—tion s—ns l—˜elF v9o˜je™tif est de trouverune fon™tion de ™l—ssi(™—tion pour le gr—pheF v— méthode ™onsiste en un pro˜lèmede régul—ris—tion où le premier terme de l— fon™tion de ™oût porte sur les donnéesl—˜élisées et le se™ond terme permet de lisser les solutions sur l9ensem˜le du gr—phe àl9—ide des exemples s—ns l—˜elF v— diéren™e entre les méthodes se situe sur l— formedes fon™tions de ™oûtF €—r exempleD l— fon™tion de ™oût peut s9exprimer en fon™tion del9erreur qu—dr—tique de ™l—ssi(™—tion pondérée pour une ™l—ssi(™—tion dite 4 dure 4 @nonpro˜—˜ilisteA ‘IRH“F he l— même f—çonD l— version pro˜—˜iliste exprime le ™oût en fon™tiondes ™h—mps —lé—toires q—ussiens ‘IRI“ ‘IRP“F …n p—pier propose d9utiliser l9—lgorithmede régul—ris—tion de „ikhonov ‘IRQ“F ve gr—phe peut —ussi être modélisé ™omme un™h—mp de w—rkov dis™ret ‘IRR“F sl existe ˜e—u™oup de propositions pour les modèles˜—sés sur les gr—phes de simil—ritéF v9invent—ire présent n9est p—s exh—ustif m—is donneune idée des —ppro™hes possi˜lesF xotons queD ™omme pour les modèles dis™rimin—ntsD™es modèles sont ˜in—ires et peuvent s9étendre —u ™—s multiE™l—sses en utilis—nt une—ppro™he 4 oneEversusE—ll 4F w—lgré l9élég—n™e des modèles m—thém—tiques et les ˜onnesperform—n™es de ™l—ssi(™—tionD ™e modèle possède quelques déf—utsF „out d9—˜ord ™esmodèles sont fortement dépend—nts de l— f—çon dont sont ™onstruits les gr—phsF ƒ9ilsne sont p—s ™orre™tement édi(ésD ™el— peut entr—îner de très m—uv—ises perform—n™esFin(nD ™es modèles ont le déf—ut d9être perform—nts en ™l—ssi(™—tion uniquement sur lesdonnées d9—pprentiss—ge ‘Q“D p—s sur les données de testD ™el— né™essite de ré—pprendreun ™l—ssi(eur pour ™h—que nouvelle donnéeF v— dernière gr—nde f—mille de méthodes d9—pprentiss—ge semiEsupervisé repose surl9emploi itér—tif de ™l—ssi(eursF v— version simpliste est le 4 self tr—ining 4 introduitd—ns les —nnées UH ‘IRS“ et qui est employé d—ns quelques —ppli™—tions de vision p—rordin—teurF €—r exempleD un p—pier ‘IRT“ propose de ™om˜iner un ™l—ssi(eur génér—tif@vi— l9—lgorithme iwA —ve™ un pro™essus de self tr—iningF ve prin™ipe est le suiv—ntF eune itér—tion donnéeD les exemples l—˜élisés de l9ensem˜le d9—pprentiss—ge ét—˜lissent unmodèle de ™l—ssi(™—tionF ves exemples s—ns l—˜el sont ™l—ssés à l9—ide de ™e ™l—ssi(eurD delàD les exemples s—ns l—˜el deviennent l—˜élisésF €—rmi ™es exemples fr—i™hement l—˜éliEsésD les plus pro˜—˜les —u sens de l— pro˜—˜ilité de ™l—ssi(™—tionD sont ™onsidérés ™ommedé(nitivement l—˜élisés et ils ™ontri˜ueront à l9él—˜or—tion du ™l—ssi(eur de l9itér—tionsuiv—nteF v9—lgorithme est présenté plus en dét—il d—ns l— se™tion RFQ du ™h—pitre RFves —v—nt—ges de ™ette méthode sont l— simpli™ité de l9—lgorithme et l9—ppli™—˜ilité àtout ™l—ssi(eur pro˜—˜ilisteF ves in™onvénients sont l— possi˜le prop—g—tion d9une erEreur ™ommise lors des premières itér—tions et l— di0™ulté de l9étude de l— ™onvergen™e‘IRU“ ‘IRV“ et du ™omportement de l9—lgorithmeF ve modèle génér—tif qui s9—ppuie surl9—lgorithme iw peut être vu ™omme un ™—s p—rti™ulier du self tr—ining d—ns le sensoù le modèle de ™l—ssi(™—tion évolue à ™h—que itér—tionD —u fur et à mesure que lesexemples sont ™orre™tement ™l—ssésF v— diéren™e se situe d—ns l9—ttri˜ution d9un l—E˜el à tous les exemples à ™h—que itér—tionD t—ndis que pour le self tr—iningD seuls lesexemples dont l9indi™e de ™on(—n™e de ™l—ssi(™—tion est su0s—mment élevé se voient
  • 23. CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DExxvi LART—ttri˜uer une ™l—sseF v9—lgorithme itér—tif le plus ™élè˜re est le 4 ™oEtr—ining 4 ‘IRW“F€—r r—pport —u self tr—iningD le ™oEtr—ining suppose que l9esp—™e des des™ripteurs peutêtre s™indé en deux sousEesp—™es indépend—nts tels queD à ™h—que itér—tionD deux ™l—ssiE(eurs —pprennent ™h—™un un modèle de ™l—ssi(™—tion sur l— ˜—se des deux sous esp—™esFv— s™ission est ee™tuée pour réduire l— ™omplexitéD surtout si l9un des deux sousEensem˜les est fortement ˜ruitéF h9—utres versions du ™oEtr—ining proposent de s™inder—lé—toirement l9esp—™e des des™ripteurs à ™h—que itér—tion ‘ISH“F €ier™e et g—rdie ‘ISI“emploient un ™l—ssi(eur f—yésien n—ïf —ve™ un pro™essus de ™oEtr—iningF sls proposent—ussi quelques modi(™—tions ™ommeD p—r exempleD le ™hoix —lé—toire d9une ™l—sse @—usens de l— distri˜ution des ™l—sses des exemples l—˜élisésA pour l—quelle on ™her™hel9exemple le plus pro˜—˜le p—rmi les exemples fr—i™hement ™l—ssi(ésF gette propositionest dis™ut—˜le d—ns le ™—s des —r˜res de ™l—ssi(™—tion dont on s—it qu9ils f—vorisent les™l—sses m—jorit—ires @™fF l— se™tion PFPFQ du ™h—pitre PAF €our ™on™lureD les perform—n™es de toutes ™es méthodes sont liées à l— n—ture des jeuxde données @nom˜re de des™ripteursD nom˜re d9exemples l—˜élisés et nom˜re d9exempless—ns l—˜elD re™ouvrement entre ™l—ssesD org—nis—tion sp—ti—le des données F F F AF sl n9y —p—s vr—iment de méthode idé—le qui domine les —utres et une étude doit être menéeà ™h—que foisF he plusD l9—pprentiss—ge semiEsupervisé fon™tionne m—l qu—nd le jeu dedonnées est ™omplexe en terme de re™ouvrement entre ™l—sseF einsiD d—ns l— plup—rt desp—piersD les méthodes sont testées sur des jeux de données pour lesquels l— ™l—ssi(™—tionest —isée en —pprentiss—ge superviséF h—ns l— ™ommun—uté de l— ™l—ssi(™—tion de p—geswe˜ ‘PS“ ‘ISP“D on emploie les termes 4 données ™orrélées 4 pour p—rler d9—pprentiss—gesemiEsuperviséF …n p—pier ‘ISQ“ montre que les deux méthodes utilisées p—r ™ette ™omEmun—uté sont les modèles ˜—sés sur les gr—phes de simil—rité et les modèles itér—tifsFh—ns ™e même p—pierD pour un jeu de données p—rti™ulierD on montre que les gr—phessont plus perform—nts que les modèles itér—tifs si l— qu—ntité d9individus l—˜ellisés esttrès f—i˜leF2.6 Conclusion h—ns ™et ét—t de l9—rtD nous —vons présenté les qu—tre types d9—pprentiss—ge ™ouEr—mment utilisés X l9—pprentiss—ge superviséD l9—pprentiss—ge non superviséD l9—pprentisEs—ge f—i˜lement supervisé et l9—pprentiss—ge semiEsupervisé qui se dé™linent en gr—ndesf—milles de modèles @génér—tifsD dis™rimin—ntsD hy˜ridesAF ve ˜ut ét—nt d9étoer les™onn—iss—n™es et de se situer méthodologiquementD les méthodes —sso™iées à ™h—™un de™es —pprentiss—ges ont été présentées su™™in™tement et nous —vons exposé les prin™ip—lesdiéren™esF ve ™h—pitre Q est plus formel qu—nt à l— ™ompréhension des méthodes et —ux déEveloppements m—thém—tiquesF xous —llons ™hoisir trois modèles de ˜—se @un génér—tifDun dis™rimin—nt et un hy˜rideA que nous dé™linerons sous leurs formes supervisées etf—i˜lement superviséesF
  • 24. CHAPITRE 3 Classication faiblement supervisée : modèles proposés3.1 Introduction3.1.1 Généralités v9o˜je™tif de ™e ™h—pitre est de déterminer quelle méthode usuelle répond —u mieuxen —pprentiss—ge f—i˜lement supervisé et de ™omprendre le fon™tionnement propre à™h—™une de ™es méthodesF xous ™hoisissons don™ volont—irement un l—rge spe™tre deméthodes @d—ns le sens où les —ppro™hes méthodologiques se distinguent fortementAFxous —vons ™hoisi un modèle génér—tifD un modèle dis™rimin—nt et un modèle hy˜rideque nous dé™linons sous leur forme ™onnue d9—pprentiss—ge superviséD puis sous uneforme d9—pprentiss—ge f—i˜lement superviséF ves deux types d9—pprentiss—ge sont préEsentés ™onjointement de m—nière à ˜ien ™omprendre les fondements des méthodes etles liens étroits exist—nt entre l9—pprentiss—ge supervisé et l9—pprentiss—ge f—i˜lementsuperviséF ve ™—s de l9—pprentiss—ge f—i˜lement supervisé ™onsidéré d—ns ™e ™h—pitre est diéErent de ™elui ren™ontré h—˜ituellement d—ns l— littér—tureF gontr—irement —ux donnéesd9—pprentiss—ge dont l9inform—tion sur les ™l—sses est donnée p—r des ve™teurs ˜in—iresqui indiquent quelles sont les ™l—sses possi˜lesD nous nous pl—çons d—ns le ™—s génér—ld9un ve™teur qui donne les pro˜—˜ilités de ™l—ssi(™—tion — priori pour ™h—que ™l—sseF€lus génér—lement en™oreD nous ™onsidérons un ensem˜le d9im—ges ou de do™uments™onten—nt des o˜jetsD telles que les distri˜utions — priori des ™l—sses sont ™onnues d—nsles im—ges ou les do™umentsF ev—nt de présenter les modèles de ™l—ssi(™—tion d—ns les se™tions QFP QFQ QFRD lesnot—tions seront introduitesF ves perform—n™es de ™l—ssi(™—tion de ™es modèles serontprésentées d—ns le ™h—pitre S pour plusieurs jeux de données du dom—ine pu˜li™F
  • 25. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xxviii MODÈLES PROPOSÉS3.1.2 Notations in ™l—ssi(™—tion superviséeD l9ensem˜le d9—pprentiss—ge est noté {xn , yn }1≤n≤N D oùxn représente l9o˜serv—tion d—ns l9esp—™e des des™ripteursD t—ndis que yn = i indiqueque xn est de l— ™l—sse iF h—ns le ™—s des ™l—ssi(eurs ˜in—ires @™l—ssi(™—tion à deux™l—ssesAD yn peut prendre les v—leurs +1 ou −1F in ™l—ssi(™—tion f—i˜lement superviséeD K indique le nom˜re d9im—ges d9—pprentisEs—geF v9im—ge d9—pprentiss—ge indi™ée p—r k ™ontient N (k) o˜jets dé™rits d—ns l9esp—™edes des™ripteurs p—r {xkn }1≤k≤K,1≤n≤N (k) F gh—que im—ge d9—pprentiss—ge est —sso™iée àun ve™teur l—˜el πk F ves ™ompos—ntes πki du ve™teur l—˜el donnent l— proportion de l—™l—sse i d—ns l9im—ge k F ges proportions peuvent être vues ™omme l9— priori de l— ™l—ssei d—ns l9im—ge k telle que πki = p (ykn = i)D ∀nF xous notons ykn = i si l9o˜jet xkn est—sso™ié à l— ™l—sse iF xotons que i πki = 1F v9étiquette glo˜—le de l9im—ge est r—menéeà l9é™helle de l9o˜jetD donn—nt un l—˜el individuel — prioriF v9ensem˜le d9—pprentiss—gepeut don™ s9é™rire X {xkn , πk }1≤k≤K,1≤n≤N (k) F v9o˜je™tif des méthodes est d9ét—˜lir un modèle de ™l—ssi(™—tion des o˜jets à p—rtirdu jeu de données d9—pprentiss—geF ƒi Θ sont les p—r—mètres du modèleD —lors nous ˆév—luons Θ d—ns un premier tempsD puis l— pro˜—˜ilité de ™l—ssi(™—tion p y = i|x, Θ ˆét—nt donné l9exemple test xF3.2 Modèle génératif3.2.1 Introduction h—ns le ™h—pitre QFPD nous étudions un modèle génér—tif ˜—sé sur l9—lgorithme iwFv— méthode ™onsiste à ™onsidérer que les données sont ™onstituées de modes g—ussiensdont nous ™her™hons à év—luer les moments d9ordre I et PF „out d9—˜ordD d—ns l— se™tion QFPFPD nous présentons l— méthode sous s— forme l—plus ™onnue X d—ns le ™—s de l9—pprentiss—ge superviséF €uisD d—ns l— se™tion QFPFQD l—pro™édure est étendue —u ™—s de l9—pprentiss—ge f—i˜lement superviséF3.2.2 Classication supervisée in guise de modèle génér—tifD nous étudions les mél—nges de q—ussiennes dont lesp—r—mètres sont estimés à l9—ide de l9—lgorithme iw qui m—ximise l— vr—isem˜l—n™e à™h—que itér—tionF yn se pl—™e d—ns le ™—s de N ré—lis—tions {x1 , . . . , xN } d9une v—ri—˜le—lé—toire X dont l— densité est un mél—nge de g—ussiennesF gel— suppose que nous™onsidérons les données d9une ™l—sse rép—rties de m—nière mod—leD ™h—que mode ét—ntmodélisé p—r une g—ussienneF v9o˜je™tif de l9—pprentiss—ge est d9estimer les p—r—mètresde ™h—™une des g—ussiennesF ƒoit l— v—ri—˜le —lé—toire S telle que snim = 1 si l— ré—lis—tion xn provient dumode m de l— ™l—sse iD et snim = 0 sinonF xous en déduisons que ρim = p (sim )D —ve™ M m=1 ρim = 1F
  • 26. 3.2. MODÈLE GÉNÉRATIF xxix ƒoit Θ = {ρim , µim , Σim }i,m les p—r—mètres d9un modèle de mél—nge g—ussienD où Mest le nom˜re de modes p—r ™l—sseD ρim est l— proportion du mode m de l— ™l—sse iD µimest l— moyenne du mode m de l— ™l—sse i et Σim est l— m—tri™e de ™ov—ri—n™e du modem de l— ™l—sse iF v— fon™tion densité s9é™rit X M p (x|y = i, Θ) = ρim N (x|µim , Σim ) @QFIA m=1 X est une o˜serv—tion in™omplète que l9on peut ™ompléter p—r l— v—ri—˜le ™—™héeS F einsi f—itD le ™ritère du m—ximum de vr—isem˜l—n™e — posteriori peut être employéFgepend—ntD l— m—ximis—tion de l— logEvr—isem˜l—n™e ™omplétée est di0™ileF v9—stu™ede l9—lgorithme iw est de ™ontourner ™e ™—l™ul vi— l— m—ximis—tion de l9espér—n™e™onditionnelle de l— logEvr—isem˜l—n™e ™omplétée p—r r—pport à ΘF in not—nt Θc lesp—r—mètres ™our—nts o˜tenus soit p—r ™—l™ulD soit p—r initi—lis—tionD l9estimé des p—r—Emètres à l9itér—tion suiv—nte s9é™rit don™ X ˆ Θ = arg max {Q(Θ, Θc )} @QFPA Θoù Q(Θ, Θc ) = E [log p (x, s|Θ) |x, Θc ] = p(s|x, Θc ) log p(x, s, Θ) @QFQA sF yrD en suppos—nt les o˜serv—tions {xn } indépend—ntesD nous pouvons é™rire X  N N   log p(x, s, Θ) = log   p(xn , sn , Θ) = log [N (x|µ, Σ)p(sn )]  N n=1 n=1 . @QFRA  c  p(s|x, Θc ) =   p(sn |xn , Θ )  n=1pin—lementD en su˜stitu—nt les éléments de l9équ—tion @QFQA et en se fo™—lis—nt sur l—™l—sse iD nous o˜tenons l9expression suiv—nte X N M c Q(Θ, Θ ) = log [ρim N (x|µim , Σim )] p(snim |xn , Θc ) @QFSA n=1 m=1xous voulons m—ximiser Q(Θ, Θc ) p—r r—pport à ΘF einsiD en ™onsidér—nt Θc ™ommeun p—r—mètre ™onst—ntD et ™omme prélimin—ire à l— m—ximis—tion nous ™—l™ulonsp(snim |xn , Θc ) d—ns une première ét—peF v— règle d9inversion de f—yes donne X ρim p (xn |snim , Θc ) p(snim |xn , Θc ) = M @QFTA ρil p (xn |snil , Θc ) l=1 €our trouver le p—r—mètre ρim qui m—ximise Q(Θ, Θc )D nous utilisons les multipliE™—teurs de v—gr—nge —ve™ l— ™ontr—inte M ρim = 1F xous o˜tenons X m=1 N 1 ρim = p(snim |xn , Θc ) @QFUA N n=1
  • 27. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xxx MODÈLES PROPOSÉSves moyennes et v—ri—n™es sont o˜tenues p—r dériv—tion X N p (snim |xn , Θc ) xn n=1 µim = N @QFVA c p (snim |xn , Θ ) n=1 N p (snim |xn , Θc ) (xn − µim ) (xn − µim )T n=1 Σim = N @QFWA p (snim |xn , Θc ) n=1€uis les p—r—mètres ™our—nts sont estimés à nouve—uD et le pro™essus est itéré jusqu9à™onvergen™eF v9—lgorithme est résumé d—ns le t—˜le—u QFIF vors de l— ph—se de testD l— pro˜—˜ilité pour qu9un individu quel™onque x soit de l—™l—sse i est donnée p—r l— pro˜—˜ilité de ™l—ssi(™—tion — posteriori X M p(y = i|x, Θ) = ρim N (x|µim , Σim ) @QFIHA m=1 sl existe une version sto™h—stique de ™et —lgorithmeF v9—lgorithme ƒiw ‘IU“ — pouro˜je™tif d9éviter d9—˜outir à un m—ximum lo™—l de vr—isem˜l—n™eF €our ™el—D entre lesét—pes i et wD les individus sont ™l—ssés p—r r—pport —ux diérents modes à l9—ide d9untir—ge —lé—toire suiv—nt l— densité de pro˜—˜ilité dis™rète {p(snim |xn )}i F3.2.3 Classication faiblement supervisée €our le ™—s de l9—pprentiss—ge f—i˜lement superviséD nous nous sommes —ppuyés surles tr—v—ux développés d—ns ‘ISR“F ge p—pier propose de résoudre l9—lgorithme iw pourdes données f—i˜lement l—˜elliséesF ge dernier tr—ite uniquement le ™—s d9o˜serv—tiondont le l—˜el indique l— présen™e ou l9—˜sen™e de ™l—sses d—ns un groupe d9o˜jetsF xous—vons —d—pté l9—lgorithme —u ™—s des l—˜els qui indiquent l— proportion des ™l—sses d—nsun groupe d9o˜jetsF ƒoit Θ = {ρim , µim , Σim }i,m les p—r—mètres d9un modèle de mél—nge de g—ussiennes X M p (x|y = i, Θ) = ρim N (x|µim , Σim ) @QFIIA m=1€our un ensem˜le d9—pprentiss—ge de l— forme {xkn , πk } qui est l—˜ellisé en proportionDle ™ritère de m—ximis—tion de l— vr—isem˜l—n™e peut être dé(nit p—r X K N (k) ˆ Θ = arg max p(π|x, Θ) = arg max p(πk |xkn , Θ) @QFIPA Θ Θ k=1 n=1
  • 28. 3.2. MODÈLE GÉNÉRATIF xxxi IG sniti—lis—tion des p—r—mètres Θc F PG tusqu9à ™onvergen™eD ee™tuer su™™essivement les ét—pes i et w X Etape E X ρim p (xn |snim , Θc ) γnim = M ρil p (xn |snil , Θc ) l=1 Etape M X @wise à jour des p—r—mètres Θc A N 1 ρim = γnim N n=1 N N γnim xn γnim (xn − µim ) (xn − µim )T n=1 n=1 µim = N Σim = N γnim γnim n=1 n=1 Tableau 3.1  Algorithme EM dans le cas de lapprentissage supervisé.gomme d—ns l— se™tion QFPFPD nous m—ximisons l9espér—n™e de l— logEvr—isem˜l—n™e™omplétée qui s9é™rit X Q(Θ, Θc ) = E [log p (x, y|Θ) |x, π, Θc ] = p(y|x, Θc ) log p(x, y, Θ) @QFIQA yƒoit K im—gesD ™omposées de N (k) o˜jetsF in suppos—nt les o˜serv—tions {xkn } indéEpend—ntesD nous pouvons é™rire X     K N (k) K N (k)   log p(x, y, Θ) = log     p(xkn , ykn , Θ)= log [p(xkn |ykn , Θ)p(ykn |Θ)] k=1 n=1 k=1 n=1 . K N (k) p(y|x, Θc ) = p(ykn |xkn , Θc ) k=1 n=1 @QFIRA€—r su˜stitution d—ns l9équ—tion @QFIQAD nous o˜tenons X K N (k) c Q(Θ, Θ ) = p (ykn = i|xkn , Θc ) log [πki p (x|ykn = i, Θ)] @QFISA k=1 n=1 i einsiD qu—nd l— proportion d9individus d—ns ™h—que im—ge ™onstitue l— l—˜ellis—tionD™ette proportion donne un — priori sur ™h—que im—ge pour ™h—que ™l—sseD de telle sorteque l9ét—pe i de l9—lgorithme iw prendre en ™ompte l9— priori πki X πki p (xkn |ykn = i, Θc ) p (ykn = i|xkn , Θc ) = @QFITA πkl p (xkn |ykn = l, Θc ) l
  • 29. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xxxii MODÈLES PROPOSÉS €our l9ét—pe w de l9—lgorithmeD l— log vr—isem˜l—n™e ™omplétée @QFISA est optimiséeen fon™tion de ΘF ‚em—rquons que l— dépend—n™e de @QFISA p—r r—pport à Θ porteessentiellement sur p (x|ykn = i, Θ) X K N (k) Q(Θ, Θ ) =c p (ykn = i|xkn , Θc ) log p (x|ykn = i, Θ) + cste @QFIUA k=1 n=1 ige point ™onstitue l— diéren™e prin™ip—le —ve™ ‘ISR“F €our notre pro˜lém—tiqueD lep—r—mètre πki est ™onnu puisqu9il ™onstitue le l—˜el des individus xkn F h—ns ‘ISR“D lesproportions ne sont p—s ™onsidérées ™onnues et doivent être estimées lors de l9ét—pe wF in sép—r—nt le pro˜lème en I pro˜lèmes élément—iresD m—ximiser QFIU revient àm—ximiser l— log vr—isem˜l—n™e d9un mél—nge de g—ussiennes pondérées p—r le termep (ykn = i|xkn , Θc ) X K N (k) p (ykn = i|xkn , Θc ) log p (x|ykn = i, Θ) @QFIVA k=1 n=1…ne nouvelle foisD l— m—ximis—tion de @QFIVA est ee™tuée vi— l9—lgorithme iwF v— méEthode ™onsiste don™ à insérer un —lgorithme iw d—ns l9ét—pe w d9un —utre —lgorithmeiwF yn peut voir d—ns ™e pro™édé ™omme l9expression d9un 4mél—nge de mél—nge4F gomme pré™édemmentD plutot que de m—ximiser l9expression de l— logEvr—isem˜l—n™e pondérée @QFIVAD nous m—ximisons ™elle de l9espér—n™e de l— logEvr—isem˜l—n™e ™omplétée X K N (k) M c c Q (Θ, Θ ) = p (ykn = i|xkn , Θ ) log [ρim N (xkn |µim , Σim )] p(sknim |xkn , Θc ) k=1 n=1 m=1 @QFIWAyù sknim D dé(nie p—r p(sim ) = ρim D indique l— pro˜—˜ilitéD pour l9o˜jet n de l9im—ge k Dd9être —pp—renté —u mode m de l— distri˜ution de l— ™l—sse iF v9ét—pe i de ™e se™ond —lgorithme iw est —lors donnée p—r X ρim p (xkn |sknim , Θc ) p (sknim |xkn , Θc ) = M @QFPHA ρknil p (xkn |sknil , Θc ) lves nouve—ux p—r—mètres sont o˜tenus à l9—ide de l— méthode des multipli™—teurs dev—gr—nge ou p—r dériv—tion de l9espér—n™e de l— log vr—isem˜l—n™e ™omplétéeD leursexpressions sont X p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) k n ρim = @QFPIA p (ykn = i|xkn , Θc ) k n p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) xkn k n µim = @QFPPA p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) k n
  • 30. 3.3. MODÈLE DISCRIMINANT xxxiii p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) (xkn − µim )(xkn − µim )T k n σim = @QFPQA p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) k nv9—lgorithme est résumé d—ns le t—˜le—u QFPF vors de l— ph—se de testD l— pro˜—˜ilité pour qu9un individu quel™onque x soit de l—™l—sse i est donné p—r l— pro˜—˜ilité de ™l—ssi(™—tion — posteriori X M p(y = i|x, Θ) = ρim N (x|µim , Σim ) @QFPRA m=1 xotons que ™et —lgorithme est peu ro˜uste pour des jeux de données ™omplexesDdont le re™ouvrement entre ™l—sses est élevéF he plusD d—ns le ™—s de distri˜utions multimod—les —ve™ des m—tri™es de ™ov—ri—n™es ™omplexesD l9—lgorithme peine à ™onvergerF inpr—tiqueD pour g—gner en perform—n™eD les m—tri™es de v—ri—n™eE™ov—ri—n™e sont ™onsidéErées di—gon—lesF gel— suppose que les des™ripteurs sont indépend—ntsF ƒi pour ™ert—instypes de données ™e n9est p—s le ™—sD le f—it de ™hoisir un modèle de mél—nge peut™ompenser ™e type de simpli(™—tionF €—r exempleD un nu—ge de points di—gon—l d—nsun esp—™e à deux dimensions pourr—it être représenté p—r plusieurs nu—ges de points™ir™ul—ires iFeF p—r un mél—nge de g—ussiennes dont les m—tri™es de ™ov—ri—n™e sont di—Egon—lesF in ™onsidér—nt I = 4 ™l—ssesD M = 5 modes et D = 20 des™ripteursD le nom˜rede p—r—mètres à estimer s9élève à IM D 1 + D = 4400 d—ns le ™—s d9une m—tri™e de 2v—ri—n™eE™ov—ri—n™e pleineD et à 2IM D = 800 p—r—mètres d—ns le ™—s d9une m—tri™e di—Egon—leF in ™omp—r—nt —ux ID = 80 p—r—mètres qui représentent les ™oe0™ients d9unhyperpl—n sép—r—teur d9un modèle dis™rimin—ntD et en suppos—nt que plus il y — de p—Er—mètres moins les —lgorithmes sont ro˜ustes et plus les perform—n™es de ™l—ssi(™—tiondiminuesD ™el— nous l—isse entrevoir les futurs perform—n™es des —lgorithmesF3.3 Modèle discriminant ve ™h—pitre QFQ est ™ons—™ré à l9él—˜or—tion de modèles dis™rimin—ntsF h—ns unpremier tempsD des méthodes ™l—ssiques d9—pprentiss—ge supervisé sont présentées d—nsl— se™tion QFQFIF xous verrons not—mment l9—n—lyse dis™rimin—nte de pisherD puis l—méthode uEp™— qui permet d9étendre l9—n—lyse de pisher du ™—s liné—ire —u ™—s nonliné—ireD les m—™hines à ve™teur de support seront ensuite étudiées d—ns le ™—s liné—ireDet en(n d—ns le ™—s non liné—ireF h—ns un se™ond tempsD nous proposons des modèlesde ™l—ssi(™—tion pour le ™—s de l9—pprentiss—ge f—i˜lement superviséF xous proposonsd9—d—pter l9—n—lyse dis™rimin—nte de pisher —u ™—s des pro˜—˜ilités de ™l—ssi(™—tion —prioriD en(nD nous indiquons ™omment o˜tenir une version non liné—ire du modèleF
  • 31. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xxxiv MODÈLES PROPOSÉS IG sniti—lis—tion des p—r—mètres Θc F PG tusqu9à ™onvergen™eD ee™tuer su™™essivement les ét—pes i et w X Etape E X πki p (xkn |ykn = i, Θc ) τkni = πkl p (xkn |ykn = l, Θc ) l Etape M X Etape M-E X ρim N (xkn |skni = m, Θc ) γknim = M ρil p (xkn |skni = l, Θc ) l=1 Etape M-M X τkni γknim τkni γknim xkn ρim = k n et µim = k n τkni τkni γknim k n k n τkni γknim (xkn − µim )(xkn − µim )T 2 k n σim = τkni γknim k n Tableau 3.2  Algorithme EM dans le cas de lapprentissage faiblement su- pervisé.3.3.1 Classication superviséeLe modèle ge modèle est une p—r—métris—tion dire™te de l— ™l—ssi(™—tionF hé(ni ™omme uneversion pro˜—˜iliste du modèle dis™rimin—ntD iFeF à l9inst—r de ™elui proposé d—ns ‘ISR“Dle modèle liné—ire peut être exprimé de l— m—nière suiv—nte X p (y = i|x, Θ) ∝ F ( ωi , x + bi |{ωi }) @QFPSAyù < ωi , x > +bi est l— dist—n™e entre l9o˜jet à ™l—sser et l9hyperpl—n qui sép—re l— ™l—ssei des —utres ™l—ssesF v9équ—tion de ™et hyperpl—n est donnée p—r < ωi , x > +bi = 0 d—nsl9esp—™e des des™ripteursF F est une fon™tion positive et ™roiss—nte qui permet d9—justerl— dyn—mique de pro˜—˜ilis—tionF h—ns ™e m—nus™ritD F est ™hoisie ™omme ét—nt l—fon™tion exponentielle X exp( ωi , x + bi ) p (y = i|x, Θ) = @QFPTA exp( ωl , x + bl ) l
  • 32. 3.3. MODÈLE DISCRIMINANT xxxv Figure 3.1  Lobjectif de lanalyse discriminante de Fisher est de trouver un axe de projection Zω qui minimise le recouvrement des nuages de points entre classes. e ™h—que ™l—sseD ™orrespond un hyperpl—n qui sép—re l— ™l—sse ™onsidérée des —utres™l—ssesF €our un individu test xD ™el— permet d9ét—˜lir un ve™teur de pro˜—˜ilité de™l—ssi(™—tionF v— ™l—sse l— plus pro˜—˜le est —ttri˜uée à l9individu xF sl existe plusieurs méthodes d9—pprentiss—ge pour o˜tenir les ™oe0™ients Θ = {ωi , bi }des hyperpl—nsF xous étudions i™i l9—n—lyse dis™rimin—nte de pisher qui est un moEdèle liné—ireD puis l— méthode uEp™— @kernel prin™ip—l ™omponent —n—lysisA qui permetd9étendre l9—n—lyse de pisher —u ™—s non liné—ireF in(nD l— méthode des ƒ†w @ƒupportw—™hine †e™torA ser— présentéeD et pour (nirD l— version non liné—ire des ƒ†wFAnalyse discriminante de Fisher h—ns ™ette se™tionD l9—pprentiss—ge est ee™tué à l9—ide de l9—n—lyse dis™rimin—nte depisherF v— philosophie de l— méthode est résumée d—ns l— (gure QFIF h—ns ™et exempleDnous souh—itons trouver l9hyperpl—n qui sép—re les los—nges des étoiles qui sont exprimésd—ns un esp—™es de deux des™ripteurs @X1 et X2 AF €our ™el—D nous —llons ™her™her l9—xeZω D porté p—r le ve™teur ω D qui minimise le re™ouvrement des proje™tions des nu—ges depoints sur ™et —xeF v— première ét—pe ™onsiste à trouver ω D il f—ut ensuite positionnerle ve™teur d—ns l9esp—™eF he m—nière plus formelleD pour un ensem˜le d9—pprentiss—ge {xn , yn }n∈[1...N ],yn ∈[1...I] Den dé(niss—nt X
  • 33. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xxxvi MODÈLES PROPOSÉS le nom˜re d9individus p—r ™l—sse X Ni N le point moyen glo˜—l X µ= 1 N xn n=1 le point moyen de l— ™l—sse i X µi = 1 Ni xn n/yn =i I Ni l— v—ri—n™e inter groupe X U= (µi − µ)(µi − µ)T i=1 N l— m—tri™e de v—ri—n™eE™ov—ri—n™e mesurée pour l— ™l—sse i X Σi I ˆ Ni l— v—ri—n™e intr— groupe X Σ= Σi i=1 N—lorsD sur l9—xe Zw engendré p—r le ve™teur ω D les v—ri—n™es inter et intr— ™l—sses ont ˆ ˆrespe™tivement pour expression X U (ω) = ω T U ω et Σ(ω) = ω T Σω F €—r prin™ipeD le™ritère de pisher ™onsiste à trouver le ve™teur ω qui m—ximise le r—pport entre l— ˆv—ri—n™e inter ™l—sse U (ω) et l— v—ri—n™e intr— ™l—sse Σ(ω) X ωT U ω arg max @QFPUA ω ˆ ω T Σωve ™ritère @QFPUA est résolu à l9—ide des multipli™—teurs de v—gr—ngeD sous l— ™ontr—inte ˆ ˆde norm—lis—tion ω T Σω = 1F xous o˜tenons l— solution génér—le X Σ−1 U ω = λω F yrD lemodèle dé(ni p—r l9expression @QFPSA est un modèle de ™l—ssi(™—tion à deux ™l—sses @une ˆ™l—sse ™ontre toutes les —utresAF h—ns ™e ™—sD l— m—tri™e Σ−1 U n9— qu9une seule v—leurpropre λ et un seul ve™teur propre —sso™ié X ω = (Σ1 + Σ2 )−1 (µ1 − µ2 ) @QFPVAxous en déduisons —isément l— v—leur de bi X (µ1 + µ2 ) b=ω @QFPWA 2 ve prin™ip—l —v—nt—ge de ™ette méthode est son f—i˜le ™oût de ™—l™ulF xous —vonsvu que l9—pprentiss—ge du modèle se résume —u ™—l™ul de @QFPVA et @QFPWAF w—is l9inE™onvénient m—jeur se situe d—ns l— f—i˜le ™omplexité du modèle et not—mment d—ns l—liné—rité du modèleFKernel-principal component analysis (K-pca) v9—n—lyse dis™rimin—nte de pisher est présentée d—ns le p—r—gr—phe pré™édent pourle ™—s liné—ireD m—is ™ert—ines situ—tions ne permettent p—s de trouver de telle solutionFxous présentons d—ns ™e p—r—gr—phe l— méthode uEp™— qui permet d9étendre un modèlede ™l—ssi(™—tion liné—ire —u ™—s non liné—ireF
  • 34. 3.3. MODÈLE DISCRIMINANT xxxvii Figure 3.2  Pour des modèles non-linéaires, lespace des observations est transformé an que, dans lespace darrivée, il existe une solution linéaire. €lutôt que d9im—giner un —utre modèle de ™l—ssi(™—tionD le prin™ipe est de tr—nsEformer l9esp—™e des o˜serv—tions pour queD d—ns le nouvel esp—™eD il existe une solutionliné—ireF €—r exempleD d—ns l— pigure QFPD d—ns l9esp—™e des des™ripteurs {X1 , X2 } iln9existe p—s d9hyperpl—n sép—r—teur pour les los—nges et les étoilesF …ne tr—nsform—tionde l9esp—™e est ee™tuéeD vi— l— fon™tion (X1 , X2 ) = ϕ (X1 , X2 )D telle qu9il existe unhyperpl—n sép—r—teur d—ns le nouvel esp—™e (X1 , X2 )F ƒi l— fon™tion ϕ est ™onnueD —lors le modèle de ™l—ssi(™—tion s9é™rit X p (y = i|ϕ(x), Θ) ∝ F ( ωi , ϕ(x) + bi |{ωi }) @QFQHAv9origin—lité de l— méthode réside d—ns le f—it qu9il n9est p—s né™ess—ire d9expli™iter l—fon™tion ϕ m—is uniquement le produit s™—l—ire —sso™iéF v9idée est d9ee™tuer une en—lyse en gompos—nte €rin™ip—le @eg€A d—ns le nouvelesp—™e —(n d9extr—ire les ™ompos—ntes les plus signi(™—tivesF €our ™el—D nous devonsdéterminer les v—leurs propres λ ≥ 0 et les ve™teurs propres non nuls v qui s—tisfont X λv = Cv @QFQIAoù C est l— m—tri™e de ™ov—ri—n™e qui s9é™rit X N 1 C= < ϕ(xn ), ϕ(xn ) > @QFQPA N n=1pour N exemples d9—pprentiss—geF v est une ™om˜in—ison liné—ire des {ϕ(xn )} que nousnotons X N v= αn ϕ(xn ) @QFQQA n=1
  • 35. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xxxviii MODÈLES PROPOSÉSin inje™t—nt l9expression de v ™—l™ulée d—ns l9équ—tion @QFQQA et en ee™tu—nt un produits™—l—ire sur l9équ—tion @QFQIA ™omme suit X λ ϕ(xn ), v = ϕ(xn ), Cv , ∀n @QFQRA—lors l9équ—tion @QFQIA peut être réé™rite de l— m—nière suiv—nte X N N N 1 λ ϕ(xn ), ϕ(xn ) = αn ϕ(xn ), ϕ(xm ), ϕ(xm ), ϕ(xn ) @QFQSA n=1 N n=1 m=1ƒoit K l— m—tri™e de qr—m dont les ™ompos—ntes sont Kmn = ϕ(xm ), ϕ(xn ) D —lors@QFQSA prend l— forme X N λKα = K 2 α @QFQTAoù α est un ve™teur ™olonne de ™ompos—ntes {αn }F €our trouver les solutions de @QFQTADnous résolvons le pro˜lème du—l X N λα = Kα @QFQUA ve ™—l™ul des v—leurs propres λ1 ≥ λ2 ≥ . . . ≥ λN et des ve™teurs propres ™orresEpond—nts {αn } est ee™tuéD puis l— nEième ™ompos—nte ϕ(x)n d9un ve™teur test ϕ(x)est donnée p—r proje™tion sur le ve™teur v n qui est engendré p—r αn X N N ϕ(x)n = v n , ϕ(x) = n αm ϕ(xm ), ϕ(x) = n αm K(xm , x) @QFQVA m=1 m=1où αm sont les ™ompos—ntes du neme ve™teur propreF n ve nouvel esp—™e peut être réduit en ne ™onsidér—nt que les Npca premières v—leurspropres {λn }F gel— revient à ™onsidérer que les v—leurs propres inférieures à λNpca ontdes v—leurs très f—i˜les et sont don™ néglige—˜lesF ve produit s™—l—ire K(x1 , x2 ) est une fon™tion noy—u ‘RT“F €—rmi les noy—ux les plusemployés ‘RT“D on trouve le noy—u liné—ire X K(x1 , x2 ) = x1 T x2 @QFQWAet le noy—u g—ussien X ||x1 − x2 | |2 K(x1 , x2 ) = exp @QFRHA 2σ 2 v— tr—nsform—tion de l9esp—™e des o˜serv—tions dépend dire™tement du ™hoix dunoy—uF €our le ™—s de l— (gure QFPD si les données sont ™entrées et si le p—r—mètre σ est™orre™tement ™hoisiD —lors le noy—u g—ussien peut être très perform—ntF gel— s9expliquep—r l— forme des nu—ges de points @d—ns le ™—s où les données sont ™entréesA qui f—it queles mesures de simil—rités sont sensi˜lement équiv—lentes —u sein des los—nges et —u seindes étoiles d—ns le ™—s du noy—u g—ussienF get exemple montre que les perform—n™es de™l—ssi(™—tion sont fortement liées —u ™hoix du noy—u et des p—r—mètres —sso™iésF
  • 36. 3.3. MODÈLE DISCRIMINANT xxxix Figure 3.3  Exemple de 4 classes qui ne sont pas linéairement séparables (gure de gauche) dans un processus " one-versus-all ". Après application de la méthode Kpca avec un noyau gaussien (gure de droite), les données deviennent linéairement séparables. h—ns l— (gure QFQD un exemple pr—tique montre ™omment R ™l—sses qui ne sontp—s liné—irement sép—r—˜les d—ns un pro™essus 4 oneEversusE—ll 4 le deviennent —près—ppli™—tion de l— méthodeF v— méthode uEp™— peut dire™tement être —ppliquée pour des données f—i˜lementl—˜elliséesF in eetD l— méthode ne requière p—s l— ™onn—iss—n™e de l—˜elsF sl s9—git uniEquement d9ee™tuer une tr—nsform—tion non liné—ire de l9esp—™e des —ttri˜utsF einsiDune fois l— tr—nsform—tion ee™tuéeD l9—n—lyse dis™rimin—nte de pisher peut être —ppliEquée d—ns le ™—s f—i˜lement superviséD et d9un modèle f—i˜lement supervisé liné—ireDnous o˜tenons un modèle f—i˜lement supervisé nonEliné—ireFSVM v— méthode ƒ†w est une —utre te™hnique de ™—l™ul des ™oe0™ients d9un hyperpl—nsép—r—teurF ƒ†w veut dire 4w—™hine à †e™teur de ƒupport4F xous dé(nissons l— m—rge™omme ét—nt l— dist—n™e entre l9hyperpl—n sép—r—teur et les points les plus pro™hes del9hyperpl—nF ges points sont —ppelés 4ve™teurs de support4F …n exemple est représentéd—ns l— pigure QFRD le ˜ut ét—nt de dis™riminer deux ™l—sses @les los—nges et les étoilesAFves ve™teurs supports sont entourés d9un ™er™le pointilléF v9idée fond—ment—le de l—méthode ƒ†w est de trouver l9hyperpl—n qui m—ximise l— m—rgeF ƒoit l9ensem˜le d9—pprentiss—ge {xn , yn }n∈[1...N ] D où yn = +1 si xn est de ™l—sse i etyn = −1 sinonF in ™hoisiss—nt de norm—liser Θ = {ωi , bi } de telle sorte que ωi x+bi = 1 Tsi x est le ve™teur support de l— ™l—sse i et que ωi x + bi = −1 sinonD —lors le ™ritère Tprim—l qui donne l9hyperpl—n sép—r—teur de m—rge m—xim—le est X ˆ 1 Θ = arg min ||ωi ||2 @QFRIA Θ 2
  • 37. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xl MODÈLES PROPOSÉS Figure 3.4  Lobjectif de la méthode SVM est de trouver lhyperplan qui maximise la marge.ƒous l— ™ontr—inteD yn ωi xn + bi ≥ 1D ∀nF T …ne formul—tion du—le du ™ritère est o˜tenue en introduis—nt les multipli™—teurs dev—gr—nge pour ™h—que ™ontr—inte @une ™ontr—inte p—r exemple d9—pprentiss—geA ‘QW“ X 1 α = arg max ˆ αn − αp αq yp yq xp , xq @QFRPA α n 2 p,qsous les ™ontr—intesD αn ≥ 0D ∀n et n αn yn = 0F xotons que les dérivées p—rtielles dul—gr—ngien donnent l— rel—tion suiv—nte X α n y n xn = ω ˆ @QFRQA n v— fon™tion de dé™ision est (n—lement o˜tenue p—r su˜stitution de l— v—leur estiméede ω d—ns l9équ—tion @QFPSA X N p (y = i|x, Θ) ∝ F αn yn x, xn + bi ˆ @QFRRA n=1gomme pour l9—n—lyse dis™rimin—nte de pisherD le p—r—mètre bi est o˜tenu en utilis—ntl9expression @QFPWAFSVM non linéaire v9extension de l— méthode ƒ†w —u ™—s non liné—ire suit l— même philosophie quel— méthode uEp™—F v9exemple de l— (gure QFP peut à nouve—u être ™onsidéréF einsiDs9il n9existe p—s de solution dis™rimin—nte liné—ire d—ns l9esp—™e des —ttri˜utsD ™eluiE™i est tr—nsformé vi— une fon™tion ϕ telle que le nouvel esp—™e propose des solutions
  • 38. 3.3. MODÈLE DISCRIMINANT xliliné—irement sép—r—˜lesF v9extension —u ™—s non liné—ire est intrinsèquement plus dire™ted—ns le ™—s des ƒ†wF „out d9—˜ordD nous rem—rquons que l— fon™tion de dé™ision @QFRRA du modèle liEné—ire s9exprime en fon™tion du produit s™—l—ire entre l9individu test x et l9ensem˜ledes données d9—pprentiss—ge {xn }F v9idée est de rempl—™er ™e produit s™—l—ire p—r unproduit s™—l—ire qui est dé(nit d—ns un —utre esp—™e des —ttri˜utsF ge nouvel esp—™eest en f—it l9esp—™e ™i˜le d—ns lequel des solutions liné—ires seront possi˜lesF ve produits™—l—ire est une fon™tion noy—u que nous notons K(x1 , x2 ) = ϕ(x1 ), ϕ(x2 ) F ves rem—rques ee™tuées sur le ™hoix de l— fon™tion noy—u sont les mêmes que pourl— méthode uEp™— X le ™hoix du noy—u et les p—r—mètres —sso™iés doivent ™orrespondreà l9org—nis—tion sp—ti—le des donnéesF3.3.2 Classication faiblement supervisée h—ns ™ette se™tion nous proposons une méthode d9—pprentiss—ge f—i˜lement superEvisé des p—r—mètres du modèle dis™rimin—ntF …ne méthode ™onsiste à développer un™l—ssi(eur ƒ†w f—i˜lement superviséD —u lieu de ç—D nous proposons une méthode plustrivi—le X l— modi(™—tion du ™ritère de pisherF ve ™—s non liné—ire est ensuite o˜tenuà l9—ide de l— méthode uEp™—F pin—lementD l— seule diéren™e qu9il existe entre le ™l—sEsi(eur ƒ†w non liné—ire et l9—n—lyse de pisher non liné—ire réside d—ns le ™—l™ul des™oe0™ients de l9hyperpl—n sép—r—teur liné—ireD l— tr—nsform—tion de l9esp—™e des —ttriE˜uts ét—nt ee™tuée de l— même m—nière pour les deux —ppro™hesFOptimisation de Fisher xous —vons vu que pour un jeux de données d9—pprentiss—ge supervisé {xn , yn }D oùyn = i si xn est de l— ™l—sse iD l9—n—lyse dis™rimin—nte de pisher d—ns le ™—s de P ™l—sses™onsiste à ™—l™uler les moyennes µ1 et µ2 D et les m—tri™es de ™ov—ri—n™es Σ1 et Σ2 Drespe™tivement de l— ™l—sse i et du regroupement des —utres ™l—ssesF ves p—r—mètres dumodèle dis™rimin—nt Θ = {ωi , bi } sont —lors ™—l™ulés ™omme indiqué d—ns les expressions@QFPVA et @QFPWAF in —pprentiss—ge f—i˜lement superviséD le jeu de données est ™onstitué d9o˜jets—sso™iés à un ve™teur d9— priori sur les ™l—sses X {xkn , πk }F it—nt donné que les ™l—ssesdes o˜jets ne sont p—s ™onnuesD nous ne pouvons p—s ™—l™uler dire™tement les pointsmoyens et les m—tri™e de ™ov—ri—n™esF €our le ™—l™ul des momentsD nous proposons de ™—l™uler une espér—n™e ™onditionnellerel—tive —ux — prioriF einsiD l— moyenne µ1 et l— m—tri™e de ™ov—ri—n™e Σ1 de l— ™l—ssei prennent respe™tivement pour expression X K N (k) πki xkn k n µ1 = @QFRSA K N (k) πki k n
  • 39. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xlii MODÈLES PROPOSÉSet K N (k) πki (xkn − µ1 )(xkn − µ1 )T k n Σ1 = @QFRTA K N (k) πki k n„—ndis que l— moyenne µ2 et l— m—tri™e de ™ov—ri—n™e Σ2 du regoupement des —utres™l—sses prennent respe™tivement pour expression X K N (k) (1 − πki )xkn k n µ2 = @QFRUA K N (k) (1 − πki ) k net K N (k) (1 − πki )(xkn − µ2 )(xkn − µ2 )T k n Σ2 = @QFRVA K N (k) (1 − πki ) k n gette méthode présente trois —v—nt—gesF „out d9—˜ordD seules les inform—tions dispoEni˜les sont exploitées X le ™—l™ul des moyennes et des m—tri™es de ™ov—ri—n™e est ee™tuéà l9—ide des toutes les données d9—pprentiss—geF h9—utre p—rtD l— méthode proposée esttrès simple puisqu9elle ne modi(e en rien l— démonstr—tion de l9—n—lyse de pisherF inE(nD une —n—lyse plus (ne du modèle —™™rédite le ™hoix d9une telle pondér—tionF €—rexempleD pour le ™—l™ul de l— moyenne µ1 d—ns l9expression @QFRSAD les individus qui ontun — priori fort ™ontri˜uent d—v—nt—ge —u ™—l™ul de l— moyenne ™ontr—irement à ™euxdont l9— priori est plus f—i˜leF gel— permet de donner d9—v—nt—ge de poids —ux donnéesdont les inform—tions sur l— ™l—sse d9origine sont plus import—ntesF3.4 Arbres de classication h—ns le ™h—pitre QFRD nous tr—itons le ™—s des —r˜res de ™l—ssi(™—tionD en™ore —ppelés—r˜res de dé™isionF h—ns un premier tempsD d—ns l— se™tion QFRFID nous dét—illons le™—s de l9—pprentiss—ge superviséF ve ™—s de l9—pprentiss—ge f—i˜lement supervisé ser—tr—ité d—ns l— se™tion QFRFP et une méthode de ™onstru™tion d9un —r˜re de ™l—ssi(™—EtionGdé™ision est proposée pour des données f—i˜lement l—˜elliséesF3.4.1 Classication supervisée ve prin™ipe de l9—pprentiss—ge des —r˜res de ™l—ssi(™—tion repose sur un é™h—ntillonEn—ge de l9esp—™e tel que l— t—ille des é™h—ntillons dépend de l9org—nis—tion des donnéesF
  • 40. 3.4. ARBRES DE CLASSIFICATION xliii Figure 3.5  Exemple en deux dimensions dun arbre de classication qui sépare les étoiles et les losanges.€—rt—nt d9un jeu de données ™ontenu d—ns un hyper volume de t—ille in(niD l— méthode™onsiste à ™réer des sousEé™h—ntillons de l9esp—™e des des™ripteurs itér—tivementF v— s™isEsion d9un volume é™h—ntillonné est ee™tuée de telle sorte que les sousEvolumes o˜tenussoient les plus homogènes possi˜les visEàEvis des ™l—ssesF ƒi un volume n9est p—s —ssezhomogèneD il est s™indé à son tourF u—nd un sous esp—™e est su0s—mment homogèneen ™l—ssesD on lui —ttri˜ue l9étiquette de l— ™l—sse l— plus fréquenteF pin—lementD lors del— ™l—ssi(™—tionD tout individu test ™ontenu d—ns ™e volume élément—ire est ™onsidéré™omme ét—nt de l— ™l—sse ™orrespond—nteF v9exemple de l— (gure QFS illustre ™es proposF h—ns ™ette (gureD l9o˜je™tif est desép—rer les étoiles et les los—nges représentés d—ns un esp—™e de dimension deuxF v9—pEprentiss—ge produit l9—r˜re représenté p—r ™inq noeudsF ve premier noeud est un noeud4père4 qui — deux noeuds 4(ls4 —sso™iésD dont l9un est un noeud 4termin—l4 et l9—utreest —ussi un noeud père qui est —sso™ié à deux noeuds (ls termin—uxF v9—r˜re —insi™réé produit une s™ission de l9esp—™e in(ni en trois sousEé™h—ntillons in(nisF ve premiervolume é™h—ntillonné est l9esp—™e X2 > c2 qui est —sso™ié —ux los—ngesD t—ndis que lesdeux —utres sont les esp—™es (X2 < c2 , X1 > c1 ) et (X2 < c2 , X1 < c1 ) respe™tivement—sso™iés —ux los—nges et —ux étoilesF v9exemple pré™édent signi(e que l— ™onstru™tion d9un —r˜re revient à ét—˜lir unesu™™ession de ™onditions liées à des v—leurs de ™oupure pour diérents —ttri˜utsF €luspré™isémentD en un noeud donnéD il f—ut déterminer l— v—leur de ™oupure cd —sso™iée—u des™ripteur d telle que les noeuds (ls soient le plus homogènes possi˜le en ™l—sseFƒi G est le g—in d9inform—tion mesurée entre le noeud père et les noeuds (lsD —lors l—meilleur v—leur de ™oupure cd ser— ™elle qui m—ximise ™e g—inF sl en ressort le ™ritère deséle™tion de d et cd X arg max G @QFRWA {d,cd }v— mesure de l9homogénéité des ™l—sses est une qu—ntité d9inform—tions que nous notons
  • 41. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xliv MODÈLES PROPOSÉSI m —u noeud (ls m et I 0 —u noeud pèreF ve g—in d9inform—tions se ™—l™ule —lors de l—m—nière suiv—nte X G= Im − I0 @QFSHA mh—ns l— méthode gRFS ‘UH“D l— qu—ntité d9inform—tions Im du noeud m ™orrespond àl9entropie de ƒh—nnon X Im = − pmi log(pmi ) @QFSIA ioù pmi est l— pro˜—˜ilité de l— ™l—sse i d—ns le noeud mF h—ns l— méthode gFeF‚F„F‘TV“D ™ette qu—ntité d9inform—tions s9exprime en fon™tion de l9indi™e de qini ‘ISS“ X Im = − pmi (1 − pmi ) @QFSPA i v— lisi˜ilité des règles de dé™isionD ˜—sée sur de simples seuilsD f—it que les —r˜resde ™l—ssi(™—tion ont l9—v—nt—ge de dé™rire expli™itement les donnéesF v— r—pidité d9exéE™ution et l— f—™ilité d9implément—tion sont d9—utres —touts import—ntsF w—lgré toutD™es méthodes sont très inst—˜les d9une expérien™e à l9—utreF ves —r˜res o˜tenus et lesperform—n™es de ™l—ssi(™—tion dièrent fortement si le jeu de données d9—pprentiss—gesu˜it quelques v—ri—tionsF €—r exempleD d—ns l— (gure QFSD l9—r˜re o˜tenu n9est p—s exE™lusifD une multitude d9—r˜res —ur—ient pu ™onvenirF xous verrons que les te™hniquesd9ensem˜le de ™l—ssi(eurs ™onstituent une solution à ™e pro˜lème @™fF ™h—pitre RAF3.4.2 Classication faiblement supervisée ves —r˜res de ™l—ssi(™—tion ont été développés d—ns un ™—dre d9—pprentiss—ge superEviséF xous souh—itons développer une te™hnique d9—r˜res de ™l—ssi(™—tion —d—ptée —uxdonnées d9—pprentiss—ge du type {xkn , πk }1≤k≤K,1≤n≤N (k) D où n indi™e les o˜jets d—nsl9im—ge k F v9—ppro™he ™onsiste à ét—˜lir un nouve—u ™ritère de s™ission des données lors del9—pprentiss—geF in s9—ppuy—nt sur l— méthode gRFS ‘UH“D un ™ritère de sép—r—tion desdonnées ˜—sé sur l9— priori des ™l—sses est proposéF xous ™her™hons toujours à m—ximiserle g—in d9inform—tion p—r r—pport à l— v—leur de ™oupure cd et —u des™ripteur d —sso™iéDet en exprim—nt l— qu—ntité d9inform—tion Im —u noeud (ls m ∈ (N )∗ tel que X Im = − pmi log(pmi ) @QFSQA ioù pmi est l— pro˜—˜ilité de ™l—sse i d—ns le noeud mF h—ns le ™—s de l9—pprentiss—gesuperviséD pmi est l— proportion d9individus de l— ™l—sse i —u noeud (ls m p—r r—pport àl9ensem˜le des individus de l— ™l—sse i —u noeud pèreF h—ns le ™—s f—i˜lement superviséDle nom˜re d9individus de l— ™l—sse i est indéterminéF xous proposons don™ d9estimer l—pro˜—˜ilité pmi plutôt en ten—nt ™ompte des — priori πkn F €our un —ttri˜ut dD en not—ntxd l— proje™tion de xkn sur l9—ttri˜ut dD —lors d—ns le premier noeud (ls m1 qui est tel kn
  • 42. 3.5. CONCLUSION xlvxd ≤ cd où cd est l— v—leur de ™oupure du des™ripteur dD l— pro˜—˜ilité de l— ™l—sse i kns9exprime —insi X (πki )α {k,n}|{xkn }≤cd pm 1 i =   @QFSRA I   (πkj )α   j=1 {k,n}|{xkn }≤cdh—ns le se™ond noeud (ls m2 D tel que xd ≥ cd D l— pro˜—˜ilité de l— ™l—sse i s9exprime kn—insi X (πki )α {k,n}|{xkn }≥cd pm 2 i =   @QFSSA I   (πkj )α   j=1 {k,n}|{xkn }≤cdα ∈ R+ est un p—r—mètre de pondér—tion qui — pour o˜je™tif de diminuer l9—pportdes exemples dont l9— priori est f—i˜le etD inversementD d9—ugmenter l— ™ontri˜ution desexemples dont l9— priori est fortF gel— revient à f—ire ™on(—n™e —ux individus dont onest presque sûr de l— ™l—sseD p—r exemple des individus dont l— pro˜—˜ilité est voisine deπkn = 0, 8D et à négliger ™eux dont l— pro˜—˜ilité est voisine de πkn = 0F ƒi α tend vers 0Dles exemples de pro˜—˜ilité nulle ont une ™ontri˜ution nulleD les ™ontri˜utions des —utresét—nt sensi˜lement équiv—lentes entre ellesF ƒi α tend vers l9in(niD seuls les exemplesde pro˜—˜ilité très pro™hes de 1 ™ontri˜uent —u ™—l™ul de pmi F gette proposition estinspirée de l9entropie de ‚ényi ‘IST“D qui qu—nti(e l— diversité et l— ™omplexité d9unsystèmeD et qui utilise un p—r—mètre α de f—çon simil—ireF ve ™hoix de l— somme d—ns les expressions @QFSRA et @QFSSA se justi(e p—r l— volontéde n9ex™lure —u™une ™l—sse possi˜leF in eetD si le produit est ™hoisi et s9il existe —umoins un individu p—r ™l—sse dont l9— priori est nulD —lors l9inform—tion Im est nullequelque soit αF …n gr—nd nom˜re d9individus l—˜élisés très pro˜—˜lement peuvent —insivoir leur ™ontri˜ution —nnulée du f—it de quelques exemples dont les — priori sont nulsFves dénomin—teurs des équ—tions @QFSRA et @QFSSA sont des ™oe0™ients de norm—lis—tionF in ™l—ssi(™—tion superviséD lors de l— ph—se de testD iFeF —près l9—pprentiss—geD à™h—que noeud est —sso™iée une ™l—sse @qui ™orrespond à l— ™l—sse m—jorit—ire d—ns lenoeudAF in ™l—ssi(™—tion f—i˜lement superviséeD ™omme les ™l—sses ne sont p—s ™onnuesDnous —ttri˜uons un ve™teur de pro˜—˜ilité de ™l—ssi(™—tion à ™h—que noeud dont les™ompos—ntes sont pmi F ge™i est d9—ut—nt plus import—nt que l9étiquette (n—le —sso™iée—u dernier noeudD ™elle qui ser— —ttri˜uée —ux exemples de testD est don™ un ve™teurde pro˜—˜ilité de ™l—ssi(™—tionD et non plus dire™tement l— ™l—sse ™omme d—ns le ™—s del9—pprentiss—ge superviséF3.5 Conclusion h—ns ™e ™h—pitreD nous —vons étudié trois méthodes élément—ires de ™l—ssi(™—tiontrès étudiés d—ns l— littér—tureF ges modèles proviennent de notions et d9—ppro™hes
  • 43. CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE :xlvi MODÈLES PROPOSÉSnettement opposéesF xous —vons présenté les form—lismes m—thém—tiques et proposé desextensions —ux ™—s de l9—pprentiss—ge f—i˜lement superviséF in termes de perform—n™esde ™l—ssi(™—tionD pour ™h—que modèleD il existe —u moins un jeu de données tel que lesperform—n™es du ™l—ssi(eur ™onsidéré soient supérieuresF gepend—ntD d9—utres méthodes utilisent ™es modèles élément—ires pour —™™roitre lesperform—n™es de ™l—ssi(™—tionF ges te™hniques ™onstituent l9o˜jet du ™h—pitre R X l9étudede l9—sso™i—tion de ™l—ssi(eurs sous l— forme de ™l—ssi(™—tion itér—tive ou de fusion depro˜—˜ilitéF
  • 44. CHAPITRE 4 Association de classieurs4.1 Introduction h—ns ™ette thèseD plutôt que de m—nipuler des l—˜elsD des ve™teurs de pro˜—˜ilitésde ™l—ssi(™—tion dé™rivent l— n—ture des o˜jetsF v9introdu™tion des pro˜—˜ilités induitdes notions usuelles d9—pprentiss—ge itér—tif et de fusion d9inform—tions @™fF —lgorithmeiw ‘IR“D —pprentiss—ge semiEsupervisé itér—tif ‘IRW“D et™AF ejoutons que le ™—dre génér—lde l9—sso™i—tion de ™l—ssi(eurs multiples est l—rgement exploité d—ns le dom—ine de l—™l—ssi(™—tion —utom—tique @‚—ndom forest ‘WS“D foosting ‘ISU“D et™AF h—ns ™e ™h—pitreDnous étudions ™es deux —spe™ts de ™om˜in—isons de ™l—ssi(eurs X l9—sso™i—tion de ™l—sEsi(eurs multiples et l9—pprentiss—ge itér—tifD le point ™ommun ét—nt que des ™l—ssi(eurssont ™om˜inés entre euxF €remièrementD d—ns l— se™tion RFPD nous étudions les ensem˜les de ™l—ssi(eurs quifont p—rtie des méthodes qui remportent —™tuellement un fr—n™ su™™ès dû —ux ex™elElentes perform—n™es de ™l—ssi(™—tionF v9idée est de générer un ensem˜le de ™l—ssi(eursqui proposent ™h—™un une solutionD puis une pro˜—˜ilité de ™l—ssi(™—tion (n—le est proEposée en fusionn—nt ™h—que solution élément—ireF yn distingue deux gr—ndes f—milles deméthodes X ™elles fondées sur le 4 ˜—gging 4 @les ™l—ssi(eurs générés sont indépend—ntsAet ™elles fondées sur le 4 ˜oosting 4 qui ™onsidère une modi(™—tion dyn—mique des ™l—sEsi(eurs @l9—pprentiss—ge d9un ™l—ssi(eur donnée dépend des perform—n™es du ™l—ssi(eurpré™édentAF heuxièmementD d—ns l— se™tion RFQD nous étudions les s™hém—s itér—tifsF ves ™l—ssiE(eurs peuvent être ™om˜inés de m—nière itér—tiveD l9idée ét—nt d9utiliser l9inform—tionintrinsèque donnée p—r un ™l—ssi(eur à une itér—tion donnée —(n de renfor™er l9—pprenEtiss—ge du ™l—ssi(eur suiv—ntF …n ™l—ssi(eur à une itér—tion donnée peut —lors être vu™omme un (ltre X si l— ™onn—iss—n™e pro˜—˜iliste du l—˜el est peu inform—tiveD iFeF lespro˜—˜ilités — priori de ™l—ssi(™—tion sont f—i˜lesD —lors le ™l—ssi(eur est utilisé pourfournir une nouvelle pro˜—˜ilité de ™l—ssi(™—tion qui est plus pro˜—˜le et moins ˜ruitéeF4.2 Ensemble de classieurs xous ™ommençons p—r un ˜ref ét—t de l9—rt d—ns lequel nous donnons quelquesdé(nitionsF gette présent—tion synthétique — pour o˜je™tif d9introduire les méthodesles plus ™onnues et les plus perform—ntesF in rev—n™heD d—ns les se™tions RFPFP et RFPFQD
  • 45. xlviii CHAPITRE 4. ASSOCIATION DE CLASSIFIEURSnous ™hoisissons un type de méthode X les forêts —lé—toiresD que nous développons plus endét—il respe™tivement pour les ™—s de l9—pprentiss—ge supervisé et f—i˜lement superviséF4.2.1 Etat de lart ves ™l—ssi(eurs sont plus ou moins perform—ntsD plus ou moins st—˜lesF he m—nièregénér—leD les ensem˜les de ™l—ssi(eurs exploitent l9inst—˜ilité de ™ert—ins modèles de™l—ssi(™—tionF h—ns ™e ™—sD un ™l—ssi(eur très inst—˜le est préféré à un ™l—ssi(eur trèsperform—ntD st—˜le et ro˜usteF …n ™l—ssi(eur peu perform—ntD seulD n9est p—s ˜éné(quem—is qu—nd plusieurs de ™es ™l—ssi(eurs sont regroupés ensem˜leD ils deviennent ™omEpétitifsF €lus ils sont inst—˜lesD plus l— qu—ntité d9inform—tions est ri™heD le ˜ut ét—nt des—voir s—isir l9inform—tion utile fournie p—r ™h—™un des ™l—ssi(eursF ge™i justi(e l9emploide ™l—ssi(eurs dits 4 f—i˜les 4 @peu ro˜ustes et peu perform—ntsA tels que les —r˜res de™l—ssi(™—tion et les ™l—ssi(eurs ˜—yésiens n—ïfs @voir se™tion PFPFI du ™h—pitre PAF v— première f—mille de méthodes — pour origine l— proposition de freim—n de ™omE˜iner des ™l—ssi(eurs à l9—ide du f—gging ‘ISV“F v9idée est de générer un ensem˜le de™l—ssi(eurs qui sont ™h—™un o˜tenus à p—rtir d9un sous ensem˜le —lé—toire des donnéesd9—pprentiss—geF v— séle™tion —lé—toire d9un sous ensem˜le d9—pprentiss—ge — ˜ut de™réer de l9inst—˜ilité entre ™l—ssi(eursF ve ™hoix de ™l—ssi(™—tion (n—l est o˜tenu envot—nt sur l9ensem˜le des propositionsF ƒi freim—n utilise des ensem˜les d9—r˜res de™l—ssi(™—tionD d9—utres méthodes mêlent ˜—gging et modèles dis™rimin—nts ou ˜—gginget modèles génér—tifsF €—r exempleD uim ‘ISW“ et h—ng ‘ITH“ proposent de ™om˜inerdes ™l—ssi(eurs ƒ†w à l9—ide du ˜—ggingD d—ns d9—utres p—piers ‘ITI“ ‘ITP“D des modèles˜—yésiens n—ïfsD issus de sous é™h—ntillons de données d9—pprentiss—ge sont —sso™iés entreeuxF ve ˜—gging — montré que l9—sso™i—tion de ™l—ssi(eurs pouv—it —méliorer nettementles perform—n™es de ™l—ssi(™—tionF gepend—ntD le pro™essus de fusion du ˜—gging ™orresEpond à une règle extrêmement simpleF einsi sont —pp—rues d9—utres méthodes qui sontregroupées sous le nom de 4 ˜oosting 4F ve prin™ipe génér—l est de générer un ensem˜lede ™l—ssi(eurs dont les résult—ts de ™l—ssi(™—tion sont pondérés en fon™tion du pouvoirdis™rimin—nt de ™h—que ™l—ssi(eurF v9—lgorithme le plus ™élè˜re est 4 —d—˜oost 4 ‘ISU“‘ITQ“ ‘ITR“ @en —ngl—isD —˜révi—tion de 4 ed—ptive foosting 4AF v9idée est de ™—l™ulerune pro˜—˜ilité de ™l—ssi(™—tion qui résulte d9une somme pondérée des pro˜—˜ilités de™l—ssi(™—tion de ™h—que ™l—ssi(eur élément—iresF ves poids sont déterminés en fon™tiondes perform—n™es de ™l—ssi(™—tion du ™l—ssi(eur élément—ire ™onsidéréF ve pro™essusest itér—tif tel queD d9une itér—tion à l9—utreD les ™l—ssi(eurs ™on™entrent leur f—™ulté dedis™rimin—tion sur les exemples di0™iles issus du re™ouvrement entre ™l—ssesF einsiD les™l—ssi(eurs issus des premières itér—tions —uront de ˜onnes perform—n™es glo˜—lesD t—nEdis que les ™l—ssi(eurs issus des dernières itér—tions seront uniquement perform—nts surles exemples di0™ilesF ve meilleur ™l—ssi(eur Cr d9une itér—tion r donnée est ™elui quiminimise une fon™tion de ™oût qui est fon™tion des poids —ttri˜ués à ™h—que exempleFv9—lgorithme ™omplet est donné d—ns le t—˜le—u RFI d—ns le ™—s de l9—pprentiss—ge suEpervisé et pour P ™l—ssesF he nom˜reuses —utres versions et extensions sont issues de—d—˜oostF €—r exempleD 4 logit˜oost 4 ‘ITS“ est l— version sto™h—stique d9—d—˜oostF€lutôt que d9—ttri˜uer une ™l—sse ˜in—ire —ux exemples @l9exemple 4 —pp—rtient 4 ou
  • 46. 4.2. ENSEMBLE DE CLASSIFIEURS xlix4 n9—pp—rtient p—s 4 à l— ™l—sse ™onsidéréeAD une régression logistique donne une v—Eleur intermédi—ire pro˜—˜ilisteF €—r exempleD des ™l—ssi(eurs ˜—yésiens n—ïfs ‘PR“ ou des—r˜res de ™l—ssi(™—tion ‘ITT“ peuvent être employés d—ns le ™—dre de logit˜oostF hivers—lgorithmes @4 ˜rown˜oost 4 ‘ITQ“D 4 m—d—˜oost4 ‘ITU“D hyyw ‘ITV“A sont ™onçus pourêtre plus ro˜ustes —ux ˜ruits de ™ert—ins jeux de données @™eux dont le t—ux de re™ouEvrement entre ™l—sses est élevéAF ves diéren™es p—r r—pport à —d—˜oost et logit˜oost sesituent d—ns l— fon™tion de ™oût qui peut être exponentielle ‘ISU“ ‘ITS“D sigmoïd—le ‘ITV“Dexponentielle ˜ornée ‘ITU“D monotone ‘ITQ“D F F F hes tr—v—ux ‘ITW“ montrent que ˜rownE˜oost est meilleur qu9—d—˜oost pour des jeux de données ˜ruitéesD m—is glo˜—lementD™es méthodes ne donnent p—s de g—in signi(™—tifF ƒoit l9ensem˜le d9—pprentiss—ge {xn , yn }1≤n≤N tel que yn = {+1, −1} et M itér—tionsD IF sniti—lis—tion uniforme des poids des exemples X P1 (n) = 1/N PF €our r —ll—nt de I à R X ! „rouver le ™l—ssi(eur Cr qui minimise l9erreur de ™l—ssi(™—tion en fon™tion de l— di0™ulté des exemples Pr X N r = arg minCr Pr (n) [δ (yn , Cr (xn ))] où Cr (xn ) = {+1, −1} indique l— ™l—sse n=1 estimée p—r Cr et δ (y1 , y2 ) = 1 si y1 = y2 F ! ƒi m ≥ 0, 5 —ller à l9ét—pe QF ! ghoix du poids du ™l—ssi(eur X αr = 1 ln 1−r r 2 ! wise à jour de l— pondér—tion des exemples d9—pprentiss—ge X Pr+1 = Pr (n)exp[−αrr yn Cr (xn )] Z où Zr est un ™oe0™ient de norm—lis—tionF QF ve ™l—ssi(eur (n—l C(x) qui —ttri˜ue une ™l—sse à l9exemple x est X R C(x) = sign αr Cr (x) r=1 Tableau 4.1  Algorithme adaBoost. h—ns les se™tions suiv—ntesD nous ™hoisissons l9une de ™es méthodes d9—sso™i—tionde ™l—ssi(eurs que nous développons d—ns le ™—s de l9—pprentiss—ge supervisé et f—i˜leEment superviséF xous ™hoisissons les forêts —lé—toiresF xotons que des tr—v—ux ‘IUH“ ontmontré que les méthodes fondées sur le ˜—gging donnent de meilleurs résult—ts pourdes jeux de données ˜ruitées que les méthodes de ˜oostingF ‚é™iproquement on préfèreemployer des te™hniques de ˜oosting pour des données f—i˜lement ˜ruitéesF4.2.2 Random forest : apprentissage supervisé h—ns le ™—dre du ˜—gging —ve™ des —r˜res de dé™isionD ro propose d9—méliorer l—méthode en ™ré—nt en™ore plus d9inst—˜ilité entre les —r˜res ‘IUI“F €our ™el—D il proposed9utiliser un sousEé™h—ntillon des des™ripteurs en ™h—que noeud de ™h—que —r˜re del— forêtF ve nom˜re de v—ri—˜le ™hoisi en un noeud est dé(ni de m—nière empirique
  • 47. l CHAPITRE 4. ASSOCIATION DE CLASSIFIEURS Figure 4.1  Dans le cadre des forêts aléatoires, les frontières imprécises et grossières des classieurs faibles sont moyennées pour donner une frontière plus précise. √‘IUP“ ‘WS“F gert—ins pré™onisent D ‘IUP“D d9—utres round(log2 (D) + 1) ‘WS“D où D est lenom˜re tot—l d9—ttri˜uts et round() séle™tionne l9entier le plus pro™heF qlo˜—lementD lesperform—n™es dé™roissent si le nom˜re d9—ttri˜uts ™hoisit pour ™h—que noeud est soittrop f—i˜leD soit trop élevéF v9—sso™i—tion du ˜—gging d9—r˜re de dé™ision —ve™ le ™hoixd9un sousEé™h—ntillon de des™ripteurs en ™h—que noeud forme les 4 forêts —lé—toires4F hes extensions de l— méthode permettent de g—gner en inst—˜ilités et en r—piditéF€—r exempleD les 4 extr—Etrees 4 ‘IUP“ proposent de prendre le premier sousEé™h—ntillon—lé—toire de des™ripteurs en un noeud donnéD ™ontr—irement —ux forêts —lé—toires quiséle™tionnent le meilleur des sousEé™h—ntillons de des™ripteursF he m—nière intuitiveD l— forte v—ri—˜ilité des —r˜res o˜tenus et l— fusion des ™l—sEsi(eurs font qu9il se dét—™he une frontière moyenne qui réduit les pro˜lèmes de surE—pprentiss—ge intrinsèques —ux —r˜res de ™l—ssi(™—tion @se™tion QFRAF v9exemple de l—(gure RFI illustre le pro™édéF h—ns ™et exempleD les frontières générées individuellementp—r les —r˜res de l— forêt sont impré™ises et grossièresD —lors que l— frontière moyenneDissue de l— fusion des ™l—ssi(eursD est ˜e—u™oup plus —ppropriéeF „out exemple test est™l—ssé p—r ™h—™un des —r˜res de l— forêt qui lui —ttri˜ue un l—˜elD puis l— fusion des™l—ssi(eurs est ee™tuée p—r un simple vote en f—veur de l— ™l—sse m—jorit—ireF4.2.3 Random forest : apprentissage faiblement supervisé xous ™onsidérons i™i une forêt d9—r˜res ™omme ™eux dé™rits d—ns l— se™tion QFRFP du™h—pitre QD iFeF des —r˜res o˜tenus à l9—ide de données d9—pprentiss—ge dont l9inform—tionsur les l—˜els est données p—r un ve™teur de pro˜—˜ilité de ™l—ssi(™—tion — prioriF ges—r˜res prennent un ve™teur de pro˜—˜ilités en entréeD iFeF pour l9—pprentiss—geD et ilsproposent un ve™teur de pro˜—˜ilités de ™l—ssi(™—tion en sortieD iFeF pour l— ph—se de
  • 48. 4.3. CLASSIFICATION ITÉRATIVE litestF ve pro˜lème est de fusionner ™es pro˜—˜ilitésF h—ns le ™—s superviséD un vote est ee™tué entre les —r˜res de l— forêt pour déterminerquelle est l— ™l—sse m—jorit—ireF he m—nière très —n—logueD d—ns le ™—s de l9—pprentiss—gef—i˜lement superviséD nous proposons d9ee™tuer l— moyenne des pro˜—˜ilités des ™l—ssesproposées p—r ™h—™un des —r˜res de l— forêtF in not—nt pt = [pt1 . . . ptI ]D l9étiquette—ttri˜uée à l9individu test x p—r l9—r˜re de l— forêt indi™é p—r tD l— pro˜—˜ilité — posterioride ™l—ssi(™—tion s9é™rit X T 1 p(y = i|x) = pti @RFIA T t=1où T est le nom˜re d9—r˜res de l— forêtF v9ét—pe de ™l—ssi(™—tion ™onsiste à séle™tionnerl— ™l—sse l— plus pro˜—˜le —u sens de l— pro˜—˜ilité — posteriori @RFIAF xotons que si nous ™onsidérons un seul —r˜reD le f—it d9—ttri˜uer un ve™teur depro˜—˜ilité de ™l—ssi(™—tion peut poser pro˜lème si le l—˜el o˜tenu donne une situ—tiond9équipro˜—˜ilitéF uelle ™l—sse —ttri˜uer —lors à l9individu test c ves forêts —lé—toiresrésolvent le pro˜lème si —u moins un des —r˜res de l— forêt ne donne p—s une situ—tiond9équipro˜—˜ilitéF in(nD de m—nière génér—leD l— di0™ulté est d9ét—˜lir un ™l—ssi(eur élément—ire dontles p—r—mètres sont estimés à p—rtir de pro˜—˜ilités de ™l—ssi(™—tion — prioriF …ne fois™ette tâ™he —™™omplieD des ™l—ssi(eurs élément—ires peuvent être ™om˜inés vi— les forêts—lé—toires ou le ˜oostingF s™iD nous —vons ™hoisi i™i les forêts —lé—toires qui se prêtentd—v—nt—ge à l— ™l—ssi(™—tion de données ™omplexes qui se ™—r—™térisent p—r un fort t—uxde re™ouvrent inter ™l—sse ‘IUH“F4.3 Classication itérative h—ns ™ette se™tionD nous proposons un pro™essus itér—tif inspiré de l9—pprentiss—gesemiEsuperviséD plus p—rti™ulièrement du 4 selfEtr—ining 4F ve 4 selfEtr—ining 4 est étendu—u ™—s de l9—pprentiss—ge f—i˜lement superviséF heux méthodes sont envis—géesD uneméthode simple et n—ïve qui présente des pro˜lèmes de surE—pprentiss—ge @se™tion RFQFIAet une méthode —méliorée qui élimine les eets de surE—pprentiss—ge @se™tion RFQFPAF4.3.1 Apprentissage itératif simple xous proposons un —pprentiss—ge itér—tif du ™l—ssi(eurF ve pro™essus est uniqueEment —ppliqué à l9ensem˜le d9—pprentiss—geD l9idée ét—nt de modi(er itér—tivement lespro˜—˜ilités de ™l—ssi(™—tion — priori de l9ensem˜le d9—pprentiss—geF in utilis—nt lesinform—tions fournies p—r ™h—que ™l—ssi(eurD les l—˜els ™onvergent vers les ™l—sses réellesdes exemples d9—pprentiss—geF einsiD le ™l—ssi(eur à une itér—tion donnée peut être vu™omme un (ltre qui —git sur les l—˜els ˜ruités et —™™roit les pro˜—˜ilités de ™l—ssi(E™—tionF gette idée vient de l9—pprentiss—ge semiEsuperviséD —ve™ le 4 selfEtr—ining 4F e™h—que itér—tionD les données l—˜élisées génèrent un ™l—ssi(eur pro˜—˜iliste qui —ttri˜ueune ™l—sse —ux données s—ns l—˜elF ves données qui ont les plus fortes pro˜—˜ilités de™l—ssi(™—tion sont —joutées —ux données l—˜ellisées pour l9itér—tion suiv—nteF
  • 49. lii CHAPITRE 4. ASSOCIATION DE CLASSIFIEURS ves pro™édures itér—tives sont —ppliquées d—ns diérents ™ontextesD m—is le ™l—ssi(eurutilisé est souvent un ™l—ssi(eur pro˜—˜iliste génér—tif ‘PS“ ‘Q“ qui prend des ™l—sses enentrée @pour l9—pprentiss—geA et fournit des pro˜—˜ilités à l— sortieF ve point nég—tif de™ette —ppro™he est l— possi˜ilité de prop—ger des erreurs dès les premières itér—tions@du f—it de l9—e™t—tion d9une ™l—sse sur l— ˜—se des pro˜—˜ilités de ™l—ssi(™—tionAF €ourréduire les eets de prop—g—tion d9erreursD nous n9—ttri˜uons p—s de ™l—sse dé(nitive—ux exemples s—ns l—˜elsD m—is les pro˜—˜ilités de ™l—ssi(™—tion sont ™onservéesF †oi™i ™omment est implémentée l— pro™édure itér—tive d9—pprentiss—ge que nous —pEpelons 4 sterI 4F e l9itér—tion rD ét—nt donné l9ensem˜le d9—pprentiss—ge f—i˜lementsupervisé {xn , πn }D un ™l—ssi(eur Cr est ™onstituéF ve ™l—ssi(eur Cr est ensuite utilisé rpour mettre à jour les données d9—pprentiss—ge {xn , πn } et fournir de nouvelles proE r˜—˜ilités de ™l—ssi(™—tion π F gette mise à jour des l—˜els pro˜—˜ilistes π r+1 doit r+1exploiterD à l— fois les inform—tions fournies p—r le ™l—ssi(eur Cr D iFeF l— pro˜—˜ilité de™l—ssi(™—tion — posteriori p(xn |yn = i, Cr )D et l9inform—tion — priori initi—le π 1 F v— miseà jour des l—˜els est —insi donnée p—r l9expression suiv—nte X r+1 1 πn ∝ πn p(yn = i|xn , Cr ) @RFPAv9—lgorithme est présenté d—ns le t—˜le—u RFPF xotons que le ™l—ssi(eur (n—l est —pprisà l9—ide de l9ensem˜le d9—pprentiss—ge {xn , πn }F R+1 ƒoit l9ensem˜le d9—pprentiss—ge T1 = {xn , πn } et R itér—tionsD 1 IF €our r —ll—nt de I à R X ! epprendre un ™l—ssi(eur Cr à l9—ide de l9ensem˜le d9—pprentiss—ge Tr F ! gl—sser l9ensem˜le d9—pprentiss—ge Tr en utilis—nt le ™l—ssi(eur Cr F ! wise à jour de l9ensem˜le d9—pprentiss—ge Tr+1 = {xn , πn } r+1 —ve™ πn ∝ πn p(yn = i|xn , Cr )F r+1 1 PF epprendre le ™l—ssi(eur (n—l —ve™ l9ensem˜le d9—pprentis—ge TR+1 F Tableau 4.2  Procédure itérative simple pour lapprentissage faiblement su- pervisé (Iter1).4.3.2 Apprentissage itératif amélioré ve prin™ip—l déf—ut de l— pro™édure itér—tive sterID présentée d—ns l— se™tion RFQFID estle surE—pprentiss—geD iFeF le ™l—ssi(eur (n—l est uniquement perform—nt pour les donnéesd9—pprentiss—ge et les perform—n™es de ™l—ssi(™—tion sont m—uv—ises pour les donnéesde l9ensem˜le de testF €our l— pro™édure itér—tive sterID l9origine de ™e phénomènevient du f—it que les données qui sont ™l—ssées p—r le ™l—ssi(eur Cr sont —ussi ™elles quipermettent d9—pprendre le ™l—ssi(eur Cr F einsiD l9optimis—tion des ™l—ssi(eurs n9est p—s—ssez génér—le ™—r elle se fo™—lise uniquement sur les données d9—pprentiss—geF e(n de résoudre le pro˜lèmeD une —utre pro™édure itér—tive est proposéeD nous l9—pEpelons sterPF v9idée est de sép—rer l— mise à jours des pro˜—˜ilités de ™l—ssi(™—tion —priori et l— règle d9—pprentiss—ge de l— pro˜—˜ilité de ™l—ssi(™—tion — posterioriF xousproposons de sép—rer —lé—toirement l9ensem˜le d9—pprentiss—ge en deux sousEensem˜lesD
  • 50. 4.4. CONCLUSION liiil9un ét—nt employé pour —pprendre un ™l—ssi(eurD et les données de l9—utre ét—nt ™l—sséesp—r ™e ™l—ssi(eurF €lus pré™isémentD nous pro™édons de l— f—çon suiv—nteF e l9itér—tionrD l9ensem˜le d9—pprentiss—ge Tr = {xn , πn } est s™indé —lé—toirement en deux sousE rensem˜les X le sousEensem˜le d9—pprentiss—ge T rr et le sous ensem˜le de test T tr F T rrpermet d9—pprendre le ™l—ssi(eur pro˜—˜iliste Cr F ves données de T tr se voit —ttri˜uerdes pro˜—˜ilités de ™l—ssi(™—tion — posteriori à l9—ide de Cr et les pro˜—˜ilités de ™l—ssiE(™—tion — priori sont mises à jour en utilis—nt l— même règle de mis à jour que pour lepro™essus itér—tif sterI @expression @RFPAAF v— s™ission de Tr est ee™tuée rel—tivementà β qui donne l— proportion des exemples pl—™és d—ns le sousEensem˜le d9—pprentiss—geT rr D —lors que l— proportion des exemples pl—™és d—ns le sousEensem˜le de test T trest (1 − β)F ve ™hoix de β mène —u ™ompromis suiv—ntF e(n que le ™l—ssi(eur Cr soit™orre™tement éstiméD le nom˜re d9exemples qui ™onstitue T rr doit être su0s—mmentélevéF w—is si β est trop gr—ndD seuls quelques exemples verront leur l—˜el mis à jour à™h—que itér—tion et le temps de ™onvergen™e peut —lors être longF v9—lgorithme est présenté d—ns le t—˜le—u RFQF xotons que le ™l—ssi(eur (n—l est—ppris à l9—ide de l9ensem˜le d9—pprentiss—ge {xn , πn }F R+1 ƒoit l9ensem˜le d9—pprentiss—ge T1 = {xn , πn } et R itér—tionsD 1 IF €our r —ll—nt de I à R X ! ƒ™inder —lé—toirement Tr en deux groupes X T rr = {xn , πn } et T tr = {xn , πn } r r selon l— proportion β F ! epprendre un ™l—ssi(eur Cr à l9—ide de l9ensem˜le d9—pprentiss—ge T rr F ! gl—sser l9ensem˜le d9—pprentiss—ge T tr en utilis—nt le ™l—ssi(eur Cr F ! wise à jour de T tr+1 = {xn , πn } r+1 —ve™ πn ∝ πn p(yn = i|xn , Cr )F r+1 1 ! ‚eformer l9ensem˜le d9—pprentiss—ge Tr+1 tel que Tr+1 = {T rr , T tr+1 }F PF epprendre le ™l—ssi(eur (n—l —ve™ l9ensem˜le d9—pprentis—ge TR+1 F Tableau 4.3  Procédure itérative améliorée pour lapprentissage faiblement supervisé (Iter2). xotons que le pro™essus itér—tif proposé est dou˜lement —ssoupli p—r r—pport —uxméthodes de 4 selfEtr—ining 4 utilisées en —pprentiss—ge semiEsuperviséF h9une p—rt les™l—ssi(eurs employés sont pro˜—˜ilistes t—nt à l9entrée qu9à l— sortieD et d9—utre p—rtDtous les exemples p—rti™ipent à l9él—˜or—tion d9un ™l—ssi(eurD le poids de ™h—que exempled—ns l9—pprentiss—ge ét—nt lié à l— n—ture intrinsèque des ™l—ssi(eursF4.4 Conclusion v— m—nipul—tion des pro˜—˜ilités de ™l—ssi(™—tion — priori ™omme inform—tions surles l—˜els implique l9emploi de ™l—ssi(eurs élément—ires dont l9—pprentiss—ge est f—i˜leEment superviséF h—ns le ™—s de l— ™l—ssi(™—tion f—i˜lement superviséD ™es ™l—ssi(eursélément—iresD étudiés d—ns le ™h—pitre QD peuvent —ussi être ™om˜inés entre euxF ge futl9o˜jet de ™e ™h—pitreF
  • 51. liv CHAPITRE 4. ASSOCIATION DE CLASSIFIEURS „rois types de ™om˜in—ison ont été étudiés X les ensem˜les de ™l—ssi(eurs qui ™omEprennent les deux gr—ndes f—milles du 4 ˜oosting 4 et du 4 ˜—gging 4D et l9—pprentisEs—ge itér—tif pour lequel nous —vons proposé une méthode qui supprime les eets desurE—pprentiss—geF h—ns le ™h—pitre suiv—ntD nous ™omp—rons toutes ™es méthodes sur diérents jeuxde donnéesF
  • 52. CHAPITRE 5 Evaluations et performances des modèles5.1 Introduction h—ns ™e ™h—pitreD nous présentons des résult—ts de simul—tions sur des jeux dedonnées ™onnus proven—nt de l— ˜—se de données …gs ‘IUQ“F gomme les perform—n™esde l— ™l—ssi(™—tion f—i˜lement supervisée dépendent l—rgement de l— ™omplexité desdonnées d9—pprentiss—geD nous devons m—itriser ™e p—r—mètreF einsiD à p—rtir d9un jeu dedonnées superviséesD des ensem˜les d9—pprentiss—ge f—i˜lement supervisés sont simulés—ve™ plusieurs nive—ux d9in™ertitude qui s9exprime p—r les pro˜—˜ilités de ™l—ssi(™—tion —priori des données d9—pprentiss—geF ve proto™ole de simul—tionD qui in™lut l— génér—tiond9un ensem˜le d9—pprentiss—ge et d9un ensem˜le de testD est présenté d—ns l— se™tionSFP et les jeux de données supervisées sont présentés d—ns l— se™tion SFQF ves perform—n™es de ™l—ssi(™—tion sont év—luées en termes de t—ux de ˜onne ™l—sEsi(™—tion et en termes de ro˜ustesse du modèle visEàEvis du nive—u de ˜ruit d—ns lesl—˜elsF in eetD le ™l—ssi(eur idé—l est perform—nt en t—ux de réussite et ses résult—ts de™l—ssi(™—tion sont identiques en —pprentiss—ge supervisé et en —pprentiss—ge f—i˜lementsuperviséF einsiD deux types de résult—ts sont présentés X les perform—n™es de ™l—ssi(™—Etion en fon™tion du nive—u de ˜ruit @se™tion SFRFQA et les perform—n™es de ™l—ssi(™—tionen fon™tion du nom˜re de ™l—sses possi˜les pour ™h—que exemple @se™tion SFRFPAF xotons queD en plus des S modèles présentés d—ns les ™h—pitres pré™édents @l— proE™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l— pro™édure itér—tive—méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD les forêts —lé—toires seules @peAD lemodèle dis™rimin—nt non liné—ire @pisherAD et le modèle génér—tif @iwAAD nous propoEsons l9emploi de l— pro™édure itér—tive simple qui ™om˜ine deux ™l—ssi(eurs @d9—˜ordle modèle dis™rimin—nt non liné—ireD puis les forêts —lé—toiresA sur deux itér—tions @piEsherCpeAF5.2 Procédure de simulation …ne p—rt import—nte de l9év—lu—tion ™onsiste à mesurer l— réponse des modèlesde ™l—ssi(™—tion en fon™tion du nive—u de ™omplexité des données d9—pprentiss—geF genive—u de ™omplexité est dé(ni p—r r—pport à l9in™ertitude lié à l— ™onn—iss—n™e des l—˜els
  • 53. lvi CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLESdes données d9—pprentiss—geD représentée p—r les v—leurs des pro˜—˜ilités de ™l—ssi(™—tion— priori —sso™iées —ux données d9—pprentiss—geF …n jeu de données dont les pro˜—˜ilités— priori de ™l—ssi(™—tion sont fortes est peu ™omplexeD et un jeu de données pour lequelles ™l—sses sont équipro˜—˜les est très ™omplexeF sl est don™ né™ess—ire de m—itriser le nive—u de ™omplexité pour ™h—que expérien™eF€our ™el—D un jeu de données supervisées est ™hoisi à p—rtir duquel nous ™réons un enEsem˜le d9—pprentiss—ge f—i˜lement l—˜éliséF ves données sont regroupées p—r groupes deproportions de ™l—sses tels que les proportions indiquent le l—˜el pro˜—˜iliste —ttri˜uéà ™h—que mem˜re du groupeF €lus pré™isémentD l— première ét—pe ™onsiste à ™hoisirun jeu de proportions {πk } pour ™h—que groupe {k} d9exemplesD puis les exemplessont distri˜ués d—ns les groupes pour —tteindre les proportions souh—itéesF in(nD l9enEsem˜le d9—pprentiss—ge {xn , πn } est ™onstruit en —ttri˜u—nt à ™h—que exemple le l—˜el™orrespond—nt à l— proportion de ™l—sses de son groupe d9—pp—rten—n™eF xotons qu9ilest préfér—˜le de ™hoisir un jeu de données équili˜ré en ™l—sses @qui ™ontient le mêmenom˜re d9exemples p—r ™l—sseA —(n de f—™iliter l— rép—rtition des données d—ns lesgroupes et de pouvoir ™réer un gr—nd nom˜re de mél—nges @plus l— ˜—se de données™ontient d9exemplesD plus on peut ™réer de mél—nges diérentsAF heux types d9expériment—tions sont présentésF „out d9—˜ord @se™tion SFRFPAD nousév—luons les perform—n™es de ™l—ssi(™—tion en fon™tion du nive—u de ˜ruit du l—˜elD—ll—nt du ™—s supervisé —u ™—s tot—lement ˜ruitéF h—ns un deuxième temps @se™tionSFRFQAD nous év—luons les perform—n™es de ™l—ssi(™—tion en fon™tion du nom˜re de ™l—ssesprésentes d—ns le mél—ngeF ves jeux de données sont présentés d—ns l— se™tion SFQF …ne fois qu9un jeu de données est ™hoisiD une v—lid—tion ™roisée permet d9év—luer let—ux moyen de ˜onnes ™l—ssi(™—tionsF v— v—lid—tion ™roisée ™onsiste à s™inder le jeu dedonnées plusieurs fois pour générer l9ensem˜le d9—pprentiss—ge et l9ensem˜le de testFeprès ™h—que s™issionD un t—ux de ˜onne ™l—ssi(™—tion est extr—it pour ™h—que modèleFves résult—ts fournis d—ns ™e m—nus™rit sont les t—ux moyens de ˜onnes ™l—ssi(™—tionssur l9ensem˜le de dix expérien™esF5.3 Jeux de données ves jeux de données proviennent de l— ˜—se de données …gs ‘IUQ“F u—tre jeuxde données ont été séle™tionnés en fon™tion de ™ritères p—rti™uliersF „out d9—˜ordD ilsdoivent ™ontenir plusieurs ™l—sses —(n de ™réer des — priori ™omplexes impliqu—nt ungr—nd nom˜re de ™l—ssesF „ypiquementD nous —vons ™hoisi des jeux de données ™onten—ntentre P et U ™l—ssesF insuiteD l— ˜—se de données doit ™ontenir su0s—mment d9exemplesp—r ™l—sse pour ™réer un gr—nd nom˜re de mél—nges et une gr—nde v—riété de types deproportions @se™tion SFPAF in(nD les jeux de données doivent être équili˜rés en ™l—ssespour que les mél—nges o˜tenus suivent les proportions imposées p—r les proportions™i˜les @se™tion SFPAF ges ™ritères spé™i(ques nous ont permis de retenir qu—tre jeux dedonnées dont les ™—r—™téristiques sont données d—ns le t—˜le—u SFIF hI est un jeu de données proven—nt de l— ™ommun—uté de vision p—r ordin—teurFsl ™ontient sept ™l—sses de texture d9im—ges @mur de ˜riquesD ™ielD feuill—geD ™imentD feEnêtreD ™heminD et her˜eAD qui sont représentées p—r IW des™ripteurs de texture @intensitéD
  • 54. 5.4. PERFORMANCES lviis—tur—tionD F F F AF v9intérêt de ™e jeu de données est l— possi˜ilité de ™réer des mél—nges™omplexes à sept ™l—ssesF hP est une ˜—se de données ™onten—nt des mesures extr—itessur une )eur @srisAF „rois ™l—sses d9sris sont représentées p—r les dimensions des pét—leset des sép—les port—nt à qu—tre le nom˜re de des™ripteursF ve jeu de données hQ est™omposé de gr—phiques @™our˜esAF ves ™our˜es des gr—phiques sont ™l—ssées p—rmi T™l—sses X norm—lesD périodiquesD plutôt dé™roiss—ntesD plutôt ™roiss—ntesD dis™ontinuesvers le h—utD ou dis™ontinues vers le ˜—sF gh—que ™our˜es est représentées p—r un ve™Eteur de TH v—leursF gomme pour hID l9intérêt de ™e jeu de données se situe d—ns le gr—ndnom˜re de ™l—sses proposéF in(nD hR est le jeu de données proposé p—r freim—n ‘TV“Dformé des des™ripteurs de formes d9ondesF IW des™ripteurs ™ontinus dé™rivent Q ™l—ssesd9ondes formées de l— ™om˜in—ison de plusieurs ˜—ses d9ondes —uxquelles s9—joute du˜ruit q—ussienF Base de Nature Nombre Exemples Descripteurs données de classes par classe hI „exture U QQH IW @gontinusA hP †égét—l Q SH R @gontinusA hQ qr—phique T IHH TH @™ontinusA hR porme d9onde Q PHH IW @gontinusA Tableau 5.1  Caractéristiques des jeux de données avec leur nature (thème de classication), I (le nombre de classe), le nombre dexemples par classe, et le nombre de descripteurs.5.4 Performances5.4.1 Choix des paramètres v— première expérien™e ™onsiste à ™hoisir les v—leurs des p—r—mètres des modèles de™l—ssi(™—tionF v— pro™édure repose sur l9év—lu—tion des perform—n™es de ™l—ssi(™—tion àp—rtir d9un ensem˜le de points possi˜les @™ette —ppro™he empirique est souvent ee™tuéequ—nd il n9existe p—s de méthode formelle pour le ™—l™ul des p—r—mètres ‘IQT“AD puisle ™hoix de l— meilleure v—leur du p—r—mètre résulte du ™—l™ul des moyennes sur lesjeux de donnéesF ves résult—ts sont donnés d—ns l9—nnexe IF xotons qu9il est n—turel de™onsidérer que l9—pprentiss—ge supervisé ™onstitue une référen™e @˜orne supérieureA pourl9év—lu—tion des perform—n™esF einsiD tous les p—r—mètres sont év—lués sur l— ˜—se d9un—pprentiss—ge superviséD puis ils sont utilisés pour l9—pprentiss—ge f—i˜lement superviséFgel— est ee™tué pour l9ensem˜le des expérien™es à suivreF h—ns le t—˜le—u WFI de l9—nnexe ID nous év—luons les perform—n™es de ™l—ssi(™—tionsupervisée pour le modèle génér—tif en fon™tion du p—r—mètre M D le nom˜re de q—usEsiennes ™onsidérées d—ns ™h—que mél—ngeD iFeF le nom˜re de q—ussiennes p—r ™l—sse @™fFse™tion QFP et t—˜le—u QFPAF v— moyenne des perform—n™es de ™l—ssi(™—tion sur l9ensem˜ledes jeux de donnéesD nous in™ite à ™hoisir M = 5F
  • 55. lviii CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLES €our l9év—lu—tion du p—r—mètre N pcaD l— dimension de l9esp—™e non liné—ire dumodèle dis™rimin—nt @™fF l— méthode up™— d—ns l— se™tion QFQFIAD et du p—r—mètre σ 2 Dle p—r—mètre d9é™helle du noy—u q—ussien @™fF équ—tion QFRHAD une —n—lyse ™onjointeest ee™tuéesF h—ns les t—˜le—ux WFP et WFQ de l9—nnexe ID nous reportons les ™our˜esillustr—nt les sensi˜ilités des p—r—mètresF pin—lementD nous ™hoisissons N pca = 50 etσ 2 = 5F €our l9év—lu—tion du p—r—mètre T D le nom˜re d9—r˜res d—ns un forêt @™fF se™tionRFPFQAD et de l— proportion d9exemples d9—pprentiss—ge utilisés pour l— ™onstru™tion d9un—r˜re de l— forêt p—r r—pport —u nom˜re tot—l d9exemples d9—pprentiss—ge @™fF se™tionRFPFQAD une —n—lyse ™onjointe est ee™tuéesF h—ns les t—˜le—ux WFR et WFS de l9—nnexeID nous reportons les ™our˜es illustr—nt les sensi˜ilités des p—r—mètresF pin—lementDnous ™hoisissons T = 100 et une proportion de l9ensem˜le d9—pprentiss—ge de HDV pourl9—pprentiss—ge d9un —r˜reF h—ns le t—˜le—u WFT de l9—nnexe ID nous év—luons les perform—n™es de ™l—ssi(™—tionsupervisée pour les forêts —lé—toiresD en fon™tion de αD le p—r—mètre de pondér—tion despro˜—˜ilités — priori d—ns le ™—l™ul des entropies en ™h—que noeud des —r˜res de dé™ision@™fF se™tion QFR et les équ—tions @QFSRA et @QFSSAAF €our ™ette expérien™eD ét—nt donné queα n9— —u™un imp—™t si le jeu de données est superviséD nous —vons généré —rti(™iellementdes jeux de données pour l9—pprentiss—ge f—i˜lement supervisé dont les pro˜—˜ilités —priori impliquent Q ™l—sses possi˜les @™es expérien™es sont expliquées plus en dét—ilsd—ns l— se™tion SFRFQD ils ™orrespondent —ux résult—ts o˜tenus d—ns l— ™olonne 4 Q 4 dut—˜le—u SFQAF v— moyenne des perform—n™es de ™l—ssi(™—tion sur l9ensem˜le des jeuxde donnéesD nous in™ite à ™hoisir α = 1F xotons que ™e p—r—mètre est peu in)uent surles résult—ts de ™l—ssi(™—tionD en eet α imp—™te sur l— dyn—mique des pro˜—˜ilités qui™onservent m—lgré tout l— même org—nis—tion hiér—r™hiqueF xotons que le p—r—mètre αDrel—tif à l9—pprentiss—ge f—i˜lement superviséD est le seul p—r—mètre supplément—ire quiest introduit p—r r—pport à l9—pprentiss—ge superviséF ve nom˜re R d9itér—tions pour les pro™essus itér—tifs @se™tion RFQA est (xé de m—nièreempirique en se référ—nt —ux résult—ts expériment—ux @(gure SFI de l— se™tion SFRFQAFves résult—ts indiquent que l— ™onvergen™e est r—pideD nous ™hoisissons don™ R = 15 eng—ge de réussiteF in(nD le ™hoix du p—r—mètre β @se™tion RFQFP du ™h—pitre RA résulte d9un ™ompromisentre le temps de ™onvergen™e de l— pro™édure itér—tive et l— qu—ntité d9exemples pourl9—pprentiss—geF €our les expérien™es à suivreD nous ™hoisissons de mettre en —v—ntl— pré™ision de l— ™l—ssi(™—tion —u détriment du temps de ™—l™ulD —lors nous (xonsβ = 0, 75F ge ™hoix se justi(e prin™ip—lement en fon™tion du jeu de données hP quine ™ontient que SH exemples p—r ™l—sse @™fF t—˜le—u SFIAD —insiD —ve™ β = 0, 75D les™l—ssi(™—teurs seront ™onstitués à p—rtir d9un jeu de données qui ™ontient environ QUexemples p—r ™l—sseF ƒi nous —vions ™hoisi β = 0.5D —lors le jeu de données p—rtield9une itér—tion donnée ne ™ontiendr—it que PS exemples p—r ™l—sseF ge ™hoix est en f—itune m—nière évidente d9o˜tenir à ™h—que fois des t—ux de ˜onne ™l—ssi(™—tion qu—siEoptim—ux pour le ™l—ssi(™—teur donnéF
  • 56. 5.4. PERFORMANCES lix5.4.2 Performances en fonction de la complexité des données dapprentissage h—ns un se™ond tempsD nous étudions les perform—n™es de ™l—ssi(™—tion en fon™tionde l— ™omplexité de l9ensem˜le d9—pprentiss—geF u—tre nive—ux de ™omplexité sont déE(nisD —ll—nt du ™—s de l9—pprentiss—ge supervisé —u ™—s où l— distri˜ution des ™l—sses estuniformeF h—ns l9—nnexe PD nous donnons l9exemple des pro˜—˜ilités — priori généréespour un jeu de données qui ™ontient R ™l—ssesF h—ns le ™—s de l9—pprentiss—ge f—i˜lementsuperviséD une seule ™l—sse est présente d—ns le mél—ngeF h—ns ™elui de l9—pprentiss—gef—i˜lement supervisé @IAD une ™l—sse domine d—ns les mél—nges m—is ™ert—ines ™l—ssessont pro˜—˜lesF h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @PAD le nive—u d9inE™ertitude est supérieur à ™elui de l9—pprentiss—ge f—i˜lement supervisé @IAD ™el— se tr—duitp—r une distri˜ution des pro˜—˜ilités — priori de ™l—ssi(™—tion qui tend vers une distriE˜ution uniforme @™fF —nnexe PAF €our éviter un quel™onque déséquili˜reD ™h—que ™l—ssedomine —u moins une fois d—ns un ensem˜le de donnéesF in(nD le dernier ™—s tr—ité est™elui où les ™l—sses ont l— même pro˜—˜ilité — priori de ™l—ssi(™—tionF gette expérien™emontre ˜ien ™omment le form—lisme de l9—pprentiss—ge f—i˜lement supervisé présentéd—ns ™e mémoire génér—lise les —utres types d9—pprentiss—geF ves résult—ts sont reportés d—ns le t—˜le—u SFP pour T modèles de ™l—ssi(™—tion X l—pro™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l— pro™édure itér—Etive —méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD l— pro™édure itér—tive simplequi ™om˜ine deux ™l—ssi(eurs @d9—˜ord le modèle dis™rimin—nt non liné—ireD puis lesforêts —lé—toiresA sur deux itér—tions @pisherCpeAD les forêts —lé—toires seules @peAD lemodèle dis™rimin—nt non liné—ire @pisherAD et le modèle génér—tif @iwAF he m—nièreprévisi˜leD les perform—n™es de ™l—ssi(™—tion dé™roissent qu—nd le nive—u de ™omplexitédes l—˜els —ugmenteD p—ss—nt de WH7 de t—ux de réussite moyen d—ns le ™—s de l9—pEprentiss—ge superviséD à PR7 de t—ux de réussite moyen d—ns le ™—s équipro˜—˜leF gel—montre l9import—n™e des v—leurs des pro˜—˜ilités — priori des ™l—ssesF port logiquementDs—ns inform—tion — priori sur les ™l—ssesD les modèles répondent très di0™ilementF ƒeulel— ™onn—iss—n™e d9un — priori permet d9—méliorer nettement les perform—n™es de ™l—sEsi(™—tion p—r r—pport —u ™—s équipro˜—˜leF einsiD d—ns le ™—s de 4 f—i˜lement supervisé@IA pour lequel une ™l—sse domine d—ns le mél—ngeD les perform—n™es de ™l—ssi(™—tionne sont dégr—dées que de II7 en moyenne p—r r—pport —u ™—s de l9—pprentiss—ge suEperviséF in termes de ™omp—r—ison des modèles de ™l—ssi(™—tionD l— pro™édure itér—tive—sso™iée —ux forêts —lé—toires @peCsterPA est l— plus pertinente pour l94 —pprentiss—gef—i˜lement supervisé @IA 4 et l94 —pprentiss—ge f—i˜lement supervisé @PA 4F in rev—n™heDl9—lgorithme iw est moins ro˜uste à l9introdu™tion d9in™ertitudes liées —u l—˜elF vemodel dis™rimin—nt se situe entre les deuxF xous proposons de ™om˜iner le modèle dis™rimin—nt et les forêts —lé—toires @piEsherCpeA pour deux r—isonsF v— première est que les forêts —lé—toires sont très perEform—ntes en ™l—ssi(™—tion superviséeD il sem˜le don™ pertinent d9ess—yer d9o˜tenir desrésult—ts équiv—lents pour des —pprentiss—ges plus ™omplexesF v— se™onde vient de l—™onst—t—tion d9une ™ert—ine ro˜ustesse du modèle dis™rimin—nt @pisherA visEà vis de l—™omplexité de l9ensem˜le d9—pprentiss—geD p—r exempleD nous rem—rquons que l9陗rtdes perform—n™es diminue —ssez peu entre le ™—s de l9—pprentiss—ge supervisé et ™elui
  • 57. lx CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLESde l9—pprentiss—ge f—i˜lement superviséF v— ™onjug—ison de ™es deux propriétés peutêtre pro(t—˜le pour ™ert—ins jeux de donnéesF h9—illeursD nous verrons d—ns le ™h—pitreU que les meilleures perform—n™es de ™l—ssi(™—tion de ˜—n™s de poissons sont o˜tenues—ve™ ™e modèleF Type Supervisé Faiblement Faiblement Non dapprentissage supervisé (1) supervisé (2) supervisé FA+Iter1 0.96 0.85 0.72 0.14 FA+Iter2 0.96 0.91 0.89 0.14 D1 Fisher+FA 0.96 0.89 0.74 0.14 FA 0.96 0.85 0.73 0.14 Fisher 0.90 0.87 0.86 0.14 EM 0.83 0.83 0.82 0.19 FA+Iter1 0.97 0.80 0.64 0.33 FA+Iter2 0.97 0.92 0.81 0.33 D2 Fisher+FA 0.97 0,88 0.72 0,33 FA 0.97 0,78 0.60 0,33 Fisher 0,89 0,82 0.54 0,33 EM 0,94 0,72 0.36 0,38 FA+Iter1 1 0.74 0.63 0.16 FA+Iter2 1 0.95 0.90 0.16 D3 Fisher+FA 1 0.82 0.74 0.16 FA 1 0.76 0.63 0.16 Fisher 0.78 0.63 0.57 0.17 EM 0.77 0.48 0.38 0.18 FA+Iter1 0.79 0.81 0.33 0.33 FA+Iter2 0.79 0.82 0.78 0.33 D4 Fisher+FA 0.87 0.75 0.78 0.33 FA 0.79 0.81 0.69 0.33 Fisher 0.85 0.82 0.64 0.33 EM 0.82 0.48 0.63 0.23 Moyennes 0.90 0.79 0.67 0.24 Tableau 5.2  Evolution du taux moyen de classication en fonction de la complexité des labels de lensemble dapprentissage. La complexité des données dapprentissage évolue du cas de lapprentissage supervisé au cas équiprobable, en passant par des cas dapprentissage faiblement supervisé plus ou moins com- plexes (cf. annexe 2).5.4.3 Performances en fonction du nombre de classes dans les mélanges €our ™ette nouvelle expérien™eD nous év—luons les perform—n™es de ™l—ssi(™—tion enfon™tion du nom˜re de ™l—sses possi˜les qui dé(nit —ussi le nive—u de ™omplexité despro˜—˜ilités — prioriF gette foisD une gr—nde v—riété de proportions ™i˜les est ™réée detelle sorte à trouver des situ—tions de l—˜els f—i˜lement ˜ruités et fortement ˜ruités à l—foisD l— seule v—ri—˜le ét—nt le nom˜re de ™l—sses présentes d—ns ™h—que mél—ngeF h—nsl9—nnexe QD nous donnons un exemple de proportions ™i˜les pour un jeu de données qui™ontient R ™l—ssesF gomme pré™édemmentD un nom˜re su0s—nt de groupes est ™onsidéré—(n que ™h—que ™l—sse domine —u moins une fois d—ns un mél—ngeF ves résult—ts sont —0™hés d—ns le t—˜le—u SFQF ve t—ux moyen de ˜onne ™l—ssi(™—tionest reporté pour ™h—que jeu de données en fon™tion du nom˜re de ™l—sses pro˜—˜lesd—ns le mél—nge pour ™h—que exemple de l9ensem˜le d9—pprentiss—geF v— moyenne dest—ux de réussite et l9陗rt type des t—ux de réussite sont reportés pour T modèles de™l—ssi(™—tion X l— pro™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l—pro™édure —méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD l— pro™édure itér—tive qui
  • 58. 5.4. PERFORMANCES lxi™om˜ine le modèle dis™rimin—nt et les forêts —lé—toires sur deux itér—tions @pisherCpeADles forêts —lé—toires seules @peAD le modèle dis™rimin—nt non liné—ire @pisherAD et lemodèle génér—tif @iwAF ves résult—ts sont positifs si ™ette moyenne est élevéeD ™e quiindique que les perform—n™es glo˜—les sont ˜onnesD et si l9陗rt type des t—ux de réussiteest f—i˜leD ™e qui signi(e que le ™l—ssi(eur est ro˜uste visEàEvis de l— ™omplexité desdonnées d9—pprentiss—geF qlo˜—lementD ™on™ern—nt l— moyenne des t—ux de réussiteD l— méthode peCsterP estl— plus perform—nte pour tous les jeux de donnéesF in termes de ro˜ustesse rel—tivementà l— ™omplexité des données d9—pprentiss—geD l— méthode peCsterP est —ussi l— plusperform—nteD s—uf pour le jeu de données hI pour lequel le modèle dis™rimin—nt produitl9陗rt type des t—ux de ˜onne ™l—ssi(™—tion le plus f—i˜le @HDHI ™ontre HDHR pour lemodèle peCsterPAF v9—n—lyse des résult—ts o˜tenus à l9—ide des ™l—ssi(eurs élément—ires montre quele modèle dis™rimin—nt et les forêts —lé—toires présentent des perform—n™es sensi˜leEment équiv—lentesF €—r exempleD pour le jeu de données hID le modèle dis™rimin—ntest meilleur —ve™ une moyenne des t—ux de réussite v—l—nt HDVV @™ontre HDVT pour lesforêts —lé—toiresAD et un 陗rt type des t—ux de réussite qui v—ut HDHI @™ontre HDII pourles forêts —lé—toiresAF snversementD pour le jeu de données hPD l— moyenne des t—ux de˜onne ™l—ssi(™—tion —tteint VW7 pour les forêts —lé—toiresD ™ontre UW7 pour le modèledis™rimin—ntD et l9陗rt type des t—ux de ˜onne ™l—ssi(™—tion est de V7D ™ontre IH7 pourle modèle de ™l—ssi(™—tionF gel— s9explique p—r l9org—nis—tion intrinsèque des donnéesqui requière l9emploi d9un ™l—ssi(eur p—rti™ulierF h—ns le dom—ine de l— ™l—ssi(™—tion—utom—tiqueD il est —dmis queD à un jeu de donnéesD ™orrespond un type de ™l—ssi(eurFeinsiD le ™hoix du noy—u est essentielD si les perform—n™es de ™l—ssi(™—tion sont moins˜onnes —ve™ le modèle dis™rimin—ntD ™el— peut venir du f—it que les simil—rités sp—Eti—les induites p—r le noy—u q—ussien ne ™orrespondent p—s à l— distri˜ution sp—ti—ledes donnéesF v— ™om˜in—ison de ™l—ssi(eursD soit p—r un pro™essus itér—tif @peCsterPAD soit p—r l—™om˜in—ison de ™l—ssi(eurs pro˜—˜ilistes @pisherCpeAD permet d9—méliorer nettementles perform—n™es de ™l—ssi(™—tionF in eetD si les perform—n™es des forêts —lé—toiresdé™roissent —ve™ l— ™omplexité de l9ensem˜le d9—pprentiss—geD l— ™om˜in—ison de ™l—sEsi(eurs g—r—ntit d9—v—nt—ge de ro˜ustesseD diminu—nt l9陗rt type des t—ux de réussiteDet en ™onséquen™eD —ugment—nt le t—ux de réussite moyenF gel— est dû —u f—it que lespro˜—˜ilités — priori sont ™orrigéesD soit de m—nière itér—tive @pour les modèles sterI etsterPAD soit en ™om˜in—nt les pro˜—˜ilités — posteriori des ™l—ssi(eurs @pour le modèlepisherCpeAF €—r exempleD pour le jeu de données hID l9陗rt type des t—ux de réussitediminue de T7 pour peCsterP @p—r r—pport à peAD t—ndis qu9il diminue de U7 pourpisherCpe @p—r r—pport à peAD ˜éné(™i—nt —insi de l9—pport de ro˜ustesse du modèledis™rimin—nt @l9陗rt type des t—ux de réussite v—ut HDHI pour le modèle dis™rimin—ntAFxotons que les ™om˜in—isons de modèles dis™rimin—nts ou de modèles génér—tifsD vi—des pro™édures itér—tives n9ont p—s donné de résult—ts ™onv—in™—ntsD ét—nt données lesperform—n™es rel—tivement moyennes o˜tenues en ™l—ssi(™—tion supervisée @les résult—tsde ™l—ssi(™—tion f—i˜lement supervisée sont logiquement inférieurs à ™eux o˜tenus en™l—ssi(™—tion superviséeAF in rev—n™heD pour ™es jeux de donnéesD les perform—n™es o˜tenues à l9—ide du modèle
  • 59. lxii CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLESgénér—tif sont moins ˜onnesD en moyenneD que ™elles o˜tenues à l9—ide des —utres moEdèlesF gel— peut s9expliquer p—r l— distri˜ution sp—ti—le des données qui ne ™orrespondp—s à une org—nis—tion de mél—nge de q—ussiennesF gepend—ntD pour le jeu de donnéeshPD m—lgré l— supériorité des modèles ˜—sés sur les forêts —lé—toiresD les perform—n™esde ™l—ssi(™—tion du modèle génér—tif sont meilleures que ™elles du modèle dis™rimin—ntD—tteign—nt WH7 de t—ux de réussite moyen et un 陗rt type des t—ux de réussite de S7F Nombre de Moyennes / classes dans 1 2 3 4 5 6 7 Ecart type le mélange FA+Iter1 0.96 0.90 0.88 0.88 0.85 0.75 0.55 0.80 - 0.13 FA+Iter2 0.96 0.96 0.96 0.94 0.94 0.92 0.81 0.92 - 0.05 Fisher+FA 0.96 0.95 0.94 0.93 0.93 0.92 0.81 0.92 - 0.04 D1 FA 0.96 0.92 0.91 0.88 0.88 0.84 0.62 0.86 - 0.11 Fisher 0.90 0.89 0.89 0.89 0.89 0.89 0.84 0.88 - 0.01 EM 0.83 0.83 0.84 0.83 0.83 0.83 0.75 0.82 - 0.03 FA+Iter1 0.97 0.97 0.84 0.90 - 0.09 FA+Iter2 0.97 0.97 0.92 0.94 - 0.03 Fisher+FA 0.97 0.95 0.88 0.93 - 0.04 D2 FA 0.97 0.90 0.81 0.89 - 0.08 Fisher 0.89 0.80 0.69 0.79 - 0.10 EM 0.94 0.95 0.85 0.90 - 0.05 FA+Iter1 1 0.90 0.91 0.82 0.74 0.74 0.86 - 0.07 FA+Iter2 1 1 0.99 0.98 0.97 0.98 0.98 - 0.01 Fisher+FA 1 0.96 0.93 0.84 0.90 0.91 0.92 - 0.05 D3 FA 1 0.9 0.89 0.75 0.82 0.88 0.87 - 0.08 Fisher 0.78 0.72 0.68 0.62 0.62 0.73 0.69 - 0.06 EM 0.77 0.62 0.62 0.45 0.47 0.58 0.58 - 0.11 FA+Iter1 0.79 0.74 0.35 0.54 - 0.27 FA+Iter2 0.79 0.83 0.81 0.82 - 0.01 Fisher+FA 0.87 0.83 0.80 0.81 - 0.02 D4 FA 0.79 0.83 0.81 0.81 - 0.02 Fisher 0.85 0.81 0.77 0.81 - 0.04 EM 0.82 0.8 0.74 0.79 - 0.04 Tableau 5.3  Evolution du taux moyen de classication en fonction du nombre de classes dans chaque mélange. Des jeux de proportions sont créés, allant du cas supervisé au cas où toutes les classes sont probables (annexe 3). …ne ™omp—r—ison entre les pro™essus itér—tifs sterI et sterP est ee™tuée @se™tionRFQAF sterI est une méthode simple d9—pprentiss—ge des l—˜els qui peut introduire uneet de surE—pprentiss—geF v— méthode —méliorée sterP élimine ™e phénomène de surE—pprentiss—geF v— ™omp—r—ison s9ee™tue en tr—ç—nt l9évolution du t—ux de ˜onnes ™l—sEsi(™—tions en fon™tion des itér—tions pour les deux —ppro™hesF gel— est proposé d—nsl— (gure SFI pour les deux jeux de données hI et hQF e ™h—que itér—tionD les donnéesd9—pprentiss—ge sont mises à jourD un modèle de ™l—ssi(™—tion est —pprisD et (n—lementles données de test sont ™l—ssées pour fournir un t—ux de ˜onnes ™l—ssi(™—tionsF v—mise à jour des l—˜els permet une meilleure estim—tion des modèles de ™l—ssi(™—tionF€—r exempleD en ™onsidér—nt l— méthode sterPD un g—in de IH7 de réussite est o˜tenuentre l9itér—tion I et l9itér—tion IS pour le jeu de données hQF he l— même f—çonD sterPpermet d9—méliorer les perform—n™es de ™l—ssi(™—tion d9environ R7 pour hIF v9imporEt—n™e d9éviter les eets de surE—pprentiss—ge induit p—r l— pro™édure itér—tive sterI est™l—irement justi(ée d—ns ™ette (gureF in eetD pour sterPD —lors que les perform—n™essont —méliorées à ™h—que itér—tionD ™elles produites p—r sterI sont qu—siErégulières etpeu ™onv—in™—ntesF ge résult—t justi(e les perform—n™es de ™l—ssi(™—tion o˜tenues d—ns les t—˜le—ux SFPet SFQF
  • 60. 5.5. CONCLUSION lxiii (a) D1 (b) D3 Figure 5.1  Evolution du taux moyen de classication en fonction des ité- rations.5.5 Conclusion Synthèse. h—ns ™e ™h—pitreD pour plusieurs jeux de donnéesD nous testons les perform—n™esde ™l—ssi(™—tion des modèles d9—pprentiss—ge f—i˜lement superviséeF e(n de mesurer le™omportement des ™l—ssi(eurs visEàEvis de l— ™omplexité de l9ensem˜le d9—pprentiss—ge@en termes de ™onn—iss—n™e des l—˜elsAD nous —vons ™hoisi de générer —rti(™iellementdes ensem˜les d9—pprentiss—ge dont l— ™onn—iss—n™e des l—˜els est donnée p—r des ve™Eteurs de pro˜—˜ilités de ™l—ssi(™—tion — prioriF gel— nous permet d9—juster l— ™omplexitédu jeu de données pour mieux ™omp—rer les méthodes entre ellesF v9—n—lyse des perforEm—n™es de ™l—ssi(™—tion montre que les forêts —lé—toires —sso™iées à un pro™essus itér—tifdonnent souvent les meilleurs résult—ts en termes de ™ompromis entre les perform—n™esde ™l—ssi(™—tion et l— ro˜ustesse visEàEvis de l— ™omplexité des données d9—pprentisEs—geF v— ™ondition prin™ip—le de réussite de l9—pprentiss—ge f—i˜lement supervisé @telque les perform—n™es de ™l—ssi(™—tion soient simil—ires à ™elle o˜tenue en —pprentiss—gesuperviséA est l— présen™e d9— priori forts —sso™iés —ux données d9—pprentiss—geF Points à améliorer. €remièrementD il f—ut envis—ger une étude théorique du ™ritère de ™onvergen™e qui
  • 61. lxiv CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLESpermette de dé(nir le ™—dre qui v—lideD ou nonD l— ™onvergen™e du pro™essusF …n ™ritèred9—rrêt sem˜le —ussi essentiel pour que l— méthode soit tr—nsfér—˜le d—ns le dom—ine del9—ppli™—tionFheuxièmementD nos modèles de ™l—ssi(™—tion sont très dépend—nts des pro˜—˜ilités de™l—ssi(™—tion — prioriF €—r exempleD nous ™onst—tons queD qu—nd les pro˜—˜ilités de™l—ssi(™—tion — priori tendent vers le ™—s équipro˜—˜leD les perform—n™es des ™l—ssi(eurssont très m—uv—ises @™—s équipro˜—˜le d—ns le t—˜le—u SFPAF einsiD nos méthodes sontd—v—nt—ge fondées sur le (ltr—ge des exemples dont les — priori de ™l—ssi(™—tion sontf—i˜lesD le plus souvent en utilis—nt le prin™ipe des sommes pondéréesF„roisièmementD ™ert—ines —mélior—tions peuvent être —pportées sur les méthodes d9—pEprentiss—geF €—r exempleD le ™ritère de fusion des pro˜—˜ilités de ™h—que —r˜re d9uneforêt pourr—it prendre en ™ompte un p—r—mètre de pondér—tion issu du ™hemin p—rE™ouru p—r les exemples de l9ensem˜le de test d—ns ™h—que —r˜re de l— forêtF in outreDl— méthode itér—tive —méliorée proposée repose sur un prin™ipe de s™ission —lé—toiredes données qui permet d9éviter le surE—pprentiss—geF gel— peut poser pro˜lème si lesexemples d9—pprentiss—ge sont peu nom˜reuxF h9—utres méthodes permettr—ient de séEp—rer l— mise à jour des pro˜—˜ilités de ™l—ssi(™—tion — priori et l— règle d9—pprentiss—gede l— pro˜—˜ilité de ™l—ssi(™—tion — posterioriD not—mmentD les exemples d9—pprentiss—gepourr—ient être séle™tionnés en fon™tion de leur degré de ™on(—n™eF in(nD nous présentons l9—pprentiss—ge f—i˜lement supervisé ™omme ét—nt une généEr—lis—tion de l9—pprentiss—ge semiEsuperviséF sl est don™ né™ess—ire de montrer le ™omEportement des modèles d—ns ™e ™—dreF h—ns l— (gure SFPD nous —0™hons des résult—tsqui mettent en —v—nt l9utilis—tion de notre —ppro™he p—r r—pport —u 4 selfEtr—ining 4D ilreste ™epend—nt à ™omp—rer les perform—n™es de ™l—ssi(™—tion à ™elles des modèles del9ét—t de l9—rtF
  • 62. 5.5. CONCLUSION lxv (a) D2 (b) D3, classe " normale " contre classe " cyclique " Figure 5.2  Pour lapprentissage semi-supervisé, évolution du taux moyen de classication en fonction des itérations pour D2 et D3. Cinq modèles de classi- cation sont comparés : le processus itératif amélioré avec les forêts aléatoires assouplies (FA+Iter2), lalgorithme " self-training " (ST) (cf. section 2.5 du chapitre 2) associé aux forêts aléatoires assouplies (FA+ST), lalgorithme ST associé aux forêts aléatoires usuelles qui ne prennent pas de probabilités en en- trées (hard FA+ST), lalgorithme ST associé à lalgorithme EM (EM+ST), et lalgorithme EM présenté dans la section 3.2.3 du chapitre 3.
  • 63. Deuxième partieClassication automatique en acoustique halieutique
  • 64. CHAPITRE 6 Sondeurs acoustiques et logiciels de traitement6.1 Introduction ve sondeur —™oustique est —™tuellement l9outil le plus —d—pté pour o˜server le miElieu sous m—rinF €—rmi les diérents types d9ondes ™omme les ondes éle™trom—gnétiqueou ™elles fondées sur l9énergie éle™triqueD seule les ondes —™oustiques possèdent des ™—Er—™téristiques de prop—g—tion —déqu—tes d—ns le milieu —qu—tiqueF xon seulement les™onditions de prop—g—tion sont ™orre™tesD m—is les ™i˜les potentielles ™omme les poisEsonsD le pl—n™tonD ou le fond de l— merD ré)é™hissent une p—rtie des ondes —™oustiquesFves ondes —™oustiques sont —lors émises depuis le sondeur et une p—rtie se ré)é™hit sur™h—que ™i˜le telle que l9é™h—ntillonn—ge des sign—ux issus des diérents é™hos des ™i˜lespermet de ™onstruire une im—ge —ppelée é™hogr—mmeF einsiD ™h—que pixel de l9im—gereprésente un é™h—ntillon de l9esp—™e sous m—rin tel que l— v—leur du pixel est fon™tionde l9énergie moyenne qui est ré)é™hie d—ns ™et é™h—ntillon sp—ti—l @on p—rle d9énergierétrodiusée p—r ™et é™h—ntillonAF ves —ppli™—tions du sondeur —™oustique sont multiplesF in ˜iologieD le sondeur trouvede nom˜reuses —ppli™—tionsF geluiE™i peut être un outil de pê™he séle™tiveD le pê™heur™hoisiss—nt p—r exemple de séle™tionner une espè™e de poissons rent—˜le tout en préserEv—nt une espè™e protégéeF ves ™—mp—gnes d9év—lu—tion des sto™ks de ™ert—ines espè™esh—lieutiques sont —ussi ee™tuées à l9—ide des sondeurs —™oustiques ‘IPT“F v— ˜iom—sse de™h—que espè™e est —lors déduite de l9o˜serv—tion des é™hogr—mmes et de l— ™l—ssi(™—tiondes im—gesF ve sondeur —™oustique est ég—lement très utilisé en géos™ien™e ‘IUR“ X pourl— ™—r—™téris—tion verti™—le des sédimentsD p—r exemple pour l— prospe™tion pétrolièreDou en ˜—thymétrieD p—r exemple pour mesurer le relief et déterminer l— n—ture du fondFin o™é—nogr—phie physiqueD en utilis—nt l9eet hopplerD le sondeur —™oustique permetde mesurer l— vitesse et l— stru™ture des m—sses d9e—u ‘IUS“F in(nD l— ™—t—strophe —éEron—utique de juin PHHWD d—ns l—quelle un —vion — disp—ru en plein o™é—n —tl—ntiqueD —montré que le sondeur —™oustique reste l9un des prin™ip—ux outils @—ve™ le son—rA utiliséspour l— fouille des o™é—ns @l9idée ét—it de retrouver les ˜oites noires de l9—pp—reil à l9—idedes sondeurs —™oustiquesAF h—ns ™e ™h—pitreD nous présentons les ™—r—™téristiques essentielles des sondeurs—™oustiquesF ges ™—r—™téristiques doivent être —ppréhendées —(n de ™omprendre ™omEment sont ™onstruites les im—ges et quelles sont les ™ontr—intes liées —ux sondeursF heux
  • 65. CHAPITRE 6. SONDEURS ACOUSTIQUES ET LOGICIELS DElxx TRAITEMENT Figure 6.1  Diagramme de rayonnement des sondeurs acoustiques mono- faisceau.types de sondeur sont présentés X le sondeur monof—is™e—u @se™tion TFPA et le sondeurmultif—is™e—ux @se™tion TFQAF6.2 Sondeur monofaisceau ves sondeurs —™oustiques monof—is™e—u sont (xés sur l— ™oque des n—vires etémettent une onde —™oustique verti™—le du ˜—te—u vers le ™entre de l— terreF €lus préE™isémentD à l9inst—r des —ntennes éle™trom—gnétiquesD l9onde se prop—ge d—ns toutes lesdire™tions m—is —ve™ des g—ins d9—tténu—tion plus ou moins v—ri—˜les en fon™tion del9orient—tionF einsiD ™omme illustré d—ns l— (gure TFID le lo˜e prin™ip—l du di—gr—mmede r—yonnement qui ™ontient l— m—jeure p—rtie de l9énergie —™oustique émise et reEçueD est orienté du sondeur vers le ™entre de l— terre @—xe Z AF ves lo˜es se™ond—iresdu di—gr—mme de r—yonnement produisent du ˜ruit —™oustique que nous ™onsidéronsnéglige—˜le d—ns ™e m—nus™ritF in ne ™onsidér—nt que l— p—rtie du di—gr—mme de r—yonEnement ™omprise d—ns l9—ngle d9ouverture à EQdfD ™el— revient à voir le di—gr—mme der—yonnement de l9—ntenne ™omme un ™ône dont le sommet est situé sur l— ˜—se dusondeurD dont l— droite génér—tri™e est p—r—llèle à l9—xe Z et dont l9—ngle ™orrespond àl9—ngle d9ouverture à EQdf du di—gr—mme de r—yonnement réel @™fF (gure TFIAF xotonsque d—ns tout le do™umentD X représente le dépl—™ement du n—vireD Y l— tr—nsvers—le—u n—vireD et Z l9—xe qui v— du n—vire vers le fond de l— merF v9onde —™oustique est un pulse d9une fréquen™e donnéeF €—r exempleD sur le n—vire„h—l—ss—D il existe S sondeurs monof—is™e—u qui se distinguent p—r l— fréquen™e despulses @IVkrzD QV krzD UH krzD IPH krzD et PHHkrzAF v9intérêt d9une —n—lyse multiEfréquentielle réside d—ns le f—it que les ™i˜les répondent diéremment en fon™tion del— fréquen™eF €—r exempleD les m—quere—uxD qui n9ont p—s de vessie n—t—toire @po™hed9—ir qui permet —ux poissons de modi(er leur )ott—˜ilité en fon™tion de l— profondeurAD
  • 66. 6.2. SONDEUR MONOFAISCEAU lxxirétrodiusent plus f—™ilement l9énergie —™oustique des impulsions de fréquen™es élevéesFs™iD nous supposons que le sondeur émet une onde —™oustique homogène d—ns le ™ôned9émission @(gure TFIAF eprès émission d9un pulseD le sondeur se pl—™e en mode d9é™outeet —™quière le sign—l ré)é™hiF ves inst—nts des é™hos du sign—l ré)é™hi renseignent sur l—dist—n™e de l— ™i˜le p—r r—pport —u sondeur t—ndis que l9—mplitude des é™hos du sign—lré)é™hi donne le pouvoir ré)é™hiss—nt de l— ™i˜le ‘IPT“F ve sign—l ré)é™hi est ™onverti enénergie éle™triqueD puis il est —mpli(é et é™h—ntillonnéF v— fréquen™e d9é™h—ntillonn—gedonne dire™tement l— h—uteur du volume élément—ire de l9esp—™eF ge volume élément—ireest un mor™e—u de ™ôneD tel que son di—mètre ™roît —ve™ l— profondeurF €—r exempleD l—fréquen™e d9é™h—ntillonn—ge v—ut UDSkrzD soit une h—uteur ™onst—nte du volume élémenE °t—ire de HDImF €our le sondeur à QVkrzD l9—ngle d9ouverture à EQdf est de U ™onduis—ntà un di—mètre de TDIm pour une profondeur de SHm et un di—mètre de IPDPm pourune profondeur de IHHmF v9—mplitude de ™h—que é™h—ntillon du sign—l éle™trique estdon™ proportionnelle à l9énergie rétrodiusée d—ns le volume élément—ire ™onsidéré enpren—nt en ™ompte les pertes de prop—g—tionF xous —ppellons 4 ping 4 l9émission d9un pulseF €—r pings su™™essifsD —ve™ l— proEgression du ˜—te—uD une im—ge peut être ™onstruiteF ves pixels représentent les volumessp—ti—ux élément—iresF gh—que ™olonne de l9im—ge représente un ping et ™h—que ligne reEprésente une pl—ge de profondeur @de t—ille HDImAD de telle sorte que les v—leurs des pixelssoient proportionnelles à l9énergie rétrodiusée d—ns le volume élément—ireF einsiD pourune im—ge en nive—u de grisD l9intensité des pixels est rel—tive à l9énergie rétrodiuséed—ns le volume élément—ire ™onsidéréF h—ns l— (gure TFPD nous représentons un exempled9im—ges o˜tenues —près plusieurs pings de deux sondeurs monof—is™e—u @un sondeurde fréquen™e d9impulsion IVkrz et un sondeur de fréquen™e d9impulsion PHHkrzAF e(nde dis™erner les formesD un seuil de EUHdf est —ppliquéD iFeF les v—leurs d9énergie inféErieures à EUHdf sont for™ées à une v—leur d9énergie très ˜—sse @EIPHdfAF pin—lementD ondistingue d—ns les im—ges le fond de l— merD des t—™hes qui ™orrespondent à des —gréEg—tions de poissonsD et des ™ou™hes de pl—n™tonsF xous rem—rquons ég—lement que lesnive—ux de gris ont ™h—ngé pour ™ert—ins pixels d9une im—ge à l9—utreF gel— est dû à l—réponse —™oustique des ™i˜les qui dière en fon™tion de l— fréquen™e des pulsesF einsiDles ™ou™hes de pl—n™tonsD ˜ien visi˜les à PHHkrzD ont qu—siment disp—rues à IVkrzFhe mêmeD ™omme l9—ngle d9ouverture est v—ri—˜le d9une fréquen™e à l9—utre @IH pour ° °IVurz et U pour PHHurzAD des —grég—tions ne sont plus intégrées d—ns le f—is™e—u àPHHurz —lors qu9elles le sont à IVkrzF sl existe plusieurs ™—s —m˜igus liés —u systèmeF €remièrementD il se peut que levolume élément—ire ™ontienne seulement une p—rtie d9un o˜jet rétrodius—ntD l9—utrep—rtie ét—nt vide d9o˜jetF h—ns ™e ™—sD l9énergie rétrodiusée ne ™orrespond p—s réelleEment à ™elle de l9o˜jetD m—is elle est sousEestiméeF €—r exempleD il se peut que l9énergierétrodiusée soit l— même d—ns le ™—s d9un volume élément—ire qui ™ontient quelquespoissons ép—rs rép—rtis d—ns le volume et d—ns le ™—s d9un volume élément—ire o™™upép—rtiellement p—r un ˜—n™ très denseF get eet de résolutionD qui est —™™entué d—ns lesgr—ndes profondeurs pour lesquelles l— t—ille du volume élément—ire —ugmenteD provoqueune forte impré™ision horizont—le sur les mesures des o˜jets de ™es im—gesF heuxièmeEmentD le ˜—te—u se dépl—™e suiv—nt l9—xe des X en émett—nt des pings à interv—llesréguliersF it—nt donnée l— forme ™onique du di—gr—mme de r—yonnementD ™ert—ines
  • 67. CHAPITRE 6. SONDEURS ACOUSTIQUES ET LOGICIELS DElxxii TRAITEMENT Figure 6.2  Exemple dune image obtenue après plusieurs pings dun sondeur monofaisceau.zones de l9esp—™e sont invisi˜les @™elles qui sont situées pro™hes de l— ™oque du n—EvireAD et d9—utres sont vues plusieurs fois p—r plusieurs pings su™™essifs @™elles qui sontpro™hes du fondAF …n ™ompromis est (xé p—r l— fréquen™e des pings qui est fon™tionde l— profondeurF v9eet de ™hev—u™hement des di—gr—mmes de r—yonnement des pingssu™™essifs entr—ine une impré™ision sur l— mesure de l9énergie rétrodiusée p—r l9o˜jetF€our les ˜—n™s de poissonsD l9énergie —sso™iée à un ˜—n™ est o˜tenue en moyenn—nt lesénergies rétrodiusées de ™h—que ping du ˜—n™ de poissons ™onsidéréF hon™D pour un˜—n™D plus il y — de pings et plus il y — de ™hev—u™hement interEpingD plus l9énergie est™orre™tement estiméeF6.3 Sondeur multifaisceaux ve prin™ipe du sondeur multif—is™e—ux est très pro™he de ™elui du sondeur monoEf—is™e—uF yutre ™ert—ines ™—r—™téristiques te™hniques internes à l9—pp—reilD l— diéren™ese situe d—ns le di—gr—mme de r—yonnement qui ™ontient plusieurs ™ônes indépend—ntsFv9idée est de juxt—poser plusieurs sondeurs monof—is™e—u tel que une plus gr—nde p—rtiede l9esp—™e sous le n—vire soit ™ouvertF gh—™un des sondeurs est respons—˜le d9une zonesous le n—vire et à ™h—que pingD ™h—que sondeur renvoie un sign—l ré)é™hiF einsiD p—rpings su™™essifs une im—ge en trois dimensions est ™onstruiteF gomme d—ns l— (gureTFID nous ™onsidérons que ™h—que f—is™e—u est un ™ôneF h—ns l— (gure TFQD à g—u™heDnous présentons le ™—s d9un di—gr—mme de r—yonnement d9un sondeur à S f—is™e—uxF ve˜—te—u se dépl—™e suiv—nt les X D l9—xe Y représente l— tr—nsvers—le —u ˜—te—uD et l9—xe Zv— du ˜—te—u jusqu9—u ™entre de l— terreF in pr—tiqueD d—ns les ™on(gur—tions usuellesdu système utiliséD il y — PI f—is™e—ux tels que les —ngles d9ouverture à EQdf v—rient ° °entre Q et T D et tels que l9—ngle formé p—r les —xes des deux f—is™e—ux extrêmes soit ° °d9environ VS D iFeF ΦaRPDS F €our éviter que les f—is™e—ux inter—gissent entre eux @un
  • 68. 6.4. CONCLUSION lxxiiif—is™e—u pourr—it ™—pter l9é™ho produit p—r un f—is™e—u voisinAD l— fréquen™e des pulsesest diérente d9un f—is™e—u à l9—utreF …n (ltre p—sse ˜—nde est don™ —sso™ié à ™h—quef—is™e—u pour ne g—rder que l— fréquen™e ™orrespond—nteF in pr—tiqueD l9ensem˜le dessousE˜—ndes s9ét—lent sur une pl—ge de fréquen™e de SHkrzF h—ns l— p—rtie droite de l— (gure TFQD l— zone insoni(ée est représentée en pointilléd—ns le pl—n (Y, Z)F h—ns ™ette zoneD deux p—rties sont dis™ern—˜les X une zone quine ™ontient que du sign—l utile et une zone qui ™ontient du sign—l utile et du ˜ruitFve ˜ruit est produit p—r les f—is™e—ux dépointésD iFeF les f—is™e—ux qui ne sont p—sorientés p—r—llèlement à l9—xe Z D et plus p—rti™ulièrement p—r leurs lo˜es se™ond—iresF °in eetD prenons l9exemple d9un f—is™e—u orienté à ΦaRS D —lors les lo˜es se™ond—iressont orientés verti™—lement —ve™ un m—ximum de rétrodiusionF €our ™e f—is™e—uD lesé™hos du fond de l— mer reçu p—r les lo˜es se™ond—ires p—rviennent —v—nt ™eux perçusp—r le lo˜e prin™ip—lD ™el— — pour eet de ™réer une zone demiEsphérique d—ns l—quelledu ˜ruit se mél—nge —u sign—lF xotons que ™e ˜ruit disp—r—ît si l9im—ge est seuillée à un™ert—in nive—u d9énergieF gomme pour le sondeur monof—is™e—uD les pings su™™essifs du sondeur multif—is™e—uxpermettent de ™onstruire une im—ge en trois dimensionsF …n exemple d9im—ge en troisdimensions est montré d—ns le h—ut de l— (gure TFRF sl s9—git de l— même zone insoni(éeque d—ns l— (gure TFPF €remièrementD nous ™onst—tons que l— qu—ntité d9inform—tionest ˜e—u™oup plus import—nte pour le sondeur multif—is™e—uxF gel— est dû —u f—it quel— zone insoni(ée est plus l—rge et —u f—it que le sondeur monof—is™e—u p—sse à ™ôté de™ert—ines —grég—tions de poissonsF einsiD l9im—ge fournie p—r le sondeur multif—is™e—uxest plus ri™he en inform—tionsF heuxièmementD l9im—ge o˜tenue à l9—ide des sondeursmultif—is™e—ux est ˜e—u™oup plus pré™ise qu—nt à l— forme des —grég—tions de poissonsF€—r exempleD d—ns le zoom de l— p—rtie ˜—sse à g—u™he de l— (gure TFRD —lors que l9im—gerévèle des formes ™omplexes et p—rti™ulières des —grég—tions de poissonsD ™elle o˜tenueà l9—ide du sondeur monof—is™e—u @(gure TFPA ne donne qu9un —perçu d9une ™oupelongitudin—le d—ns le pl—n (X, Z)F ves —pports du sondeur multif—is™e—ux p—r r—pport —usondeur monof—is™e—u sont don™ l— meilleure représent—tion de l— distri˜ution sp—ti—ledes —grég—tions et un —perçu plus inform—tif de l— morphologie des —grég—tions depoissonsF sl existe des pro˜lèmes de résolution sp—ti—leF „out d9—˜ordD on trouve les mêmespro˜lèmes que pour le sondeur monof—is™e—u X les zones invisi˜les pro™hes du ˜—te—uentre ™h—que pingD les zones où les f—is™e—ux se ™hev—u™hent d9un ping à l9—utre à p—rtird9une ™ert—ine profondeurD et l— t—ille du volume élément—ire qui —ugmente —ve™ l—profondeurF ƒ9—joute à ™el— le ™—s des f—is™e—ux extérieurs pour lesquels les volumesélément—ires sont in™linés d9un —ngle Φ ™orrespond—nt à l9orient—tion de l9—xe du ™ônede r—yonnementF ge phénomène est visi˜le d—ns le ˜—s à droite de l— (gure TFQF v—meilleure résolution n9est don™ p—s verti™—le m—is suiv—nt l9—xe du ™ône de r—yonnementF6.4 Conclusion gomme entrevu d—ns l— se™tion TD il est indispens—˜le de développer des outils(—˜les et ro˜ustes d9o˜serv—tion du milieu sous m—rinF ves r—isons peuvent être d9ordre
  • 69. CHAPITRE 6. SONDEURS ACOUSTIQUES ET LOGICIELS DElxxiv TRAITEMENT Figure 6.3  Diagramme de rayonnement des sondeurs acoustiques multifais- ceaux. Figure 6.4  Exemple dun échogramme acquis à laide dun sondeur multi- faisceaux.é™ologiqueD environnement—lD ™ommer™i—lD ou s™ienti(queF h—ns ™e ™ontexteD le sonEdeur —™oustique monof—is™e—u est un instrument d9o˜serv—tion idé—l qui permetD vi—un é™h—ntillonn—ge de l9esp—™eD de ™onstruire une im—ge d—ns l—quelle sont visi˜les les—grég—tions de pl—n™tonsD les ˜—n™s de poissonsD et le fond de l— merF ve sondeur mulEtif—is™e—ux f—it en™ore mieux X l9im—ge o˜tenue est en trois dimensions et les volumesélément—ires sont plus petitsF ges progrèsD en termes de résolution d9im—geD donnentlieu à une meilleure des™ription morphologique et énergétique des —grég—tionsF e(nde générer des im—ges exploit—˜lesD le sondeur —™oustique est —sso™ié à un logi™iel detr—itement du sign—l qui met en forme les im—ges et en extr—it des p—r—mètres ™omme
  • 70. 6.4. CONCLUSION lxxv™eux des ˜—n™s de poissonsF h—ns ™e ™h—pitreD les outils d9o˜serv—tions utilisés pour ™ette thèse sont présentésgrossièrementF v9o˜je™tif est de ˜ien ™on™eptu—liser le ™ontexte d9—™quisition des im—gesFxous —vons volont—irement peu développé ™ert—ins —spe™ts liés —ux ™—pteurs ™omme lepro˜lème des lo˜es se™ond—ires des sondeurs —™oustiquesD ou ™elui de l— déte™tion dufondD ou en™ore les pro˜lèmes liés à l9ét—lonn—ge des —pp—reilsF h—ns les pro™h—ins™h—pitresD nous mettrons l9—™™ent sur les des™ripteurs —sso™iés —ux ˜—n™s de poissonsextr—its de ™es im—ges @™h—pitre UA et nous tr—iterons le ™—s pr—tique des év—lu—tions desto™ks @™h—pitre VAF
  • 71. CHAPITRE 7 Classication et reconnaissance des structures7.1 Introduction ves —ppli™—tions usuelles de tr—itement d9é™hos —™oustiques sontD p—r exempleD l—™l—ssi(™—tion des ˜—n™s de poissons @à ™h—que —grég—tion ™orrespond une espè™e de poisEson ou un regroupement d9espè™es de poissonsAD l— ™l—ssi(™—tion des im—ges @à ™h—queim—ge ™orrespond une proportion de ˜iom—sse p—r espè™e ou d9énergie p—r espè™eAD ouen™ore l9étude des distri˜utions des —gré—tions @soit sp—ti—lementD soit d—ns l9esp—™e desdes™ripteurs des ˜—n™s de poissonsAD l9o˜je™tif ét—nt d9ee™tuer des —n—lyses génér—lesd9un é™osystème ‘IPT“F h—ns ™ette thèseD nous nous pl—çons d—ns le ™—s de l— ™l—ssi(E™—tion des ˜—n™s de poissonsF gel— né™essite d9extr—ire pré—l—˜lement des des™ripteurspour ™h—que ˜—n™ de poissonsF ges des™ripteurs sont les p—r—mètres morphologiquesdes ˜—n™sD les p—r—mètres rel—tifs à l9énergie rétrodiuséeD et les ™—r—™téristiques depositionnement sp—ti—l des —grég—tionsF …n ˜ref ét—t de l9—rt sur l— ™—r—™téris—tion des stru™tures est ee™tué d—ns l— se™tionUFPF insuiteD d—ns l— se™tion UFQD nous étudions les des™ripteurs —sso™iés —ux ˜—n™s depoissons et dis™utons des —pproxim—tions ee™tuéesF …n test de re™onn—iss—n™e des˜—n™s Ph est ee™tué pour retrouverD et étendre les résult—ts présentés d—ns l— thèsede g—rl— ƒ™l—l—˜rin ‘IUT“F v— dimension 4 ˜—n™s 4 sem˜le trop élément—ire pour —ppréhender une org—nis—tionsp—ti—le des ˜—n™s de poissons à l9é™helle d9un é™osystème ou plus simplement d9unerégionF gel— devient d9—ut—nt plus import—nt —ve™ les données issues du sondeur mulEtif—is™e—ux pour lesquelles l— notion de ˜—n™s de poissons est moins fondéeF h—ns ™e™ontexteD nous préférons une —n—lyse glo˜—le de l9im—ge et nous proposons un des™ripEteur st—tistique qui modélise à l— fois l9org—nis—tion sp—ti—le des ˜—n™s de poissonsD etl— ™omposition du mél—nge d9espè™es @se™tion UFRAF
  • 72. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESlxxviii STRUCTURES7.2 Etat de lart ves premiers tr—v—ux sur l9—n—lyse des réponses —™oustiques des ˜—n™s de poissonssont ee™tués de m—nière m—nuelleF €—r exempleD ‚enouD „™herni—D rodgson et €erE™ier ‘IUU“ ‘IUV“ ‘IUW“ montrent de m—nière qu—ntit—tive que les réponses —™oustiquesdes ˜—n™s de poissons sont fon™tion des espè™es insoni(éesF ves tr—v—ux ét—ient ee™Etués à p—rtir de l9étude des formes des é™hotr—™es o˜tenusF e l9époqueD il n9y —v—itp—s de logi™iels inform—tiques et les p—r—mètres expli™—tifs des ˜—n™s ét—ient extr—itsm—nuellement à p—rtir du gr—phique fourni p—r une t—˜le tr—ç—nteF h—ns les —nnées UHD une —v—n™ée ™onsidér—˜le est ré—lisée qu—nt à l— modélis—tiondes indi™es de rétrodiusion des ™i˜les individuelles et des ˜—n™s de poissons ‘IVH“‘IVI“ ‘IVP“ ‘IVQ“ ‘IVR“F ges tr—v—ux mettent en rel—tion l— t—ille du poissonD l9espè™e dupoissonD et l— densité du ˜—n™ de poissonsD —ve™ l9indi™e de rétrodiusion de l9énergie—™oustiqueF €—r exempleD ™onn—iss—nt l9intensité de l9é™hoD le type et l— t—ille du poissonD—lors l9expert est en mesure d9év—luer l— ˜iom—sse du ˜—n™ de poissons insoni(éF ves —nnées VH et l9—vènement de l9inform—tique ont permis l9é™h—ntillonn—ge dusign—l issu du sondeur et le sto™k—ge des é™h—ntillonsF he làD les premiers tr—v—ux postEextr—™tion ‘IVS“ ‘IVT“ sont —pp—rus X à l9inst—r des tr—v—ux de pisher sur les sris ‘QT“Ddes p—r—mètres sont extr—its m—nuellement des ˜—n™s de poissons @longueurD h—uteurDposition d—ns l— ™olonne d9e—uD énergie moyenne rétrodiuséeD F F F A et des pro™essus de™l—ssi(™—tion permettent l9—n—lyse des donnéesF ve développement de logi™iels d9extr—™tion —utom—tiques des ˜—n™s de poissons etde tr—itement des données ™onstitue une ét—pe import—nte en —™oustique h—lieutiqueF€—rmi ™es logi™iels ‘IVU“D on peut ™iter des logi™iels fr—nç—is ™omme woviesC ‘IVV“ et™es divers évolutions ‘IVW“ ‘IWH“D des logi™iels utilisés p—r l— ™ommun—uté intern—tion—l™omme i™ho†iew 1 D fergen sntegr—tor @fsA 2 D F F F hès lorsD le pro™essus de tr—itement n9— j—m—is ™essé de s9—méliorer et des proto™olesde ™l—ssi(™—tion d9espè™es ou d9estim—tion de ˜iom—sse sont ét—˜lis ‘IVU“F €—r exempleDd—ns ses tr—v—uxD g—rl— ƒ™—l—˜rin dé(nit le ˜—n™ de poissons et propose une liste exEh—ustive de des™ripteurs —sso™iés —ux sondeurs monof—is™e—u ‘IWI“ ‘IWP“ ‘IWQ“ ‘IWR“ ‘IWS“‘IUT“F ƒes tr—v—ux m—rquent —ussi le dé˜ut de l9—utom—tis—tion ™omplète du pro™essusde re™onn—iss—n™eD —ll—nt de l9extr—™tion —utom—tique des ˜—n™s de poissonsD jusqu9à l—™l—ssi(™—tion —utom—tique p—r espè™eF xoël hinerD vi— des outils de simul—tion d9—gréEg—tionsD propose des méthodes de ™orre™tion des des™ripteurs des ˜—n™s de poissons‘IWT“F eve™ l9—vènement du sondeur multif—isse—uxD l— ™—r—™téris—tion des stru™tures™onn—ît un renouve—uF ves développements te™hnologiques ré™ents permettent d9—méEliorer en résolution et en dimension l9o˜serv—tion de l— ™olonne d9e—uF v9—n—lyse de ™esim—ges en Q dimensions ont déjà f—it l9o˜jet de pu˜li™—tions ‘IWU“ ‘IWV“F ‚é™emmentDde nouve—ux outils sont —pp—rus pour l9—0™h—ge des —grég—tions en trois dimensions‘IWW“ ‘PHH“F €—r exempleD on peut ™iter le logi™iel wovies QhD développé p—r l9sfremerD 1 www.echoview.com 2 BI est développé par lIMR (" Institut of Marine Research ", en Norvège) et commercialisé par lasociété norvégienne SIMRAD qui conçoit la majorité des sondeurs actuellement utilisés.
  • 73. 7.3. CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS lxxixqui ™ontient des modules ™omme l— déte™tion du fond ‘PHI“ ou l9extr—™tion —utom—tiquedes des™ripteurs des ˜—n™s de poissons en trois dimensions ‘PHP“F7.3 Classication et reconnaissance des bancs de pois- sons7.3.1 Descripteurs des bancs 2D h—ns ™ette se™tionD les des™ripteurs de ˜—n™s de poissons qui sont extr—its d9une—n—lyse p—r sondeur monof—ise—u sont présentés su™™in™tementF …ne —n—lyse plus —pEprofondie de ™es des™ripteurs est disponi˜le d—ns l— thèse de g—rl— ƒ™—l—˜rin ‘IUT“F xotons que les p—r—mètres des ˜—n™s de poissons sont liés à l— notion de seuild9extr—™tion X l9ensem˜le des pixels de l9im—ge sont seuillés —(n d9ex™lure les inform—Etions ™onsidérées ™omme ét—nt rel—tives à du ˜ruit @poissons isolésD pl—n™tonD F F F dontl9énergie —™oustique rétrodiusée est f—i˜leA et de ne ™onserver que ™elles liées à une—grég—tion de poissons @—ve™ une forte énergie rétrodiusée qui ™orrespond à des niEve—ux d9intensité de pixels élevés d—ns l9im—geAF v— forme et l— t—ille des —grég—tionssont fortement liées —u seuil d9extr—™tionF in eetD des ˜—n™s distin™ts à un ™ert—inseuilD peuvent ne former qu9une seule et même entité à un seuil inférieurF he mêmeDà ™—use des v—ri—˜ilités de rétrodiusion inter espè™esD ™ert—ines espè™es de poissonssont invisi˜les pour un seuil donnéD —lors que d9—utres restent déte™t—˜lesF in pr—tiqueDpour les ™—mp—gnes d9év—lu—tion de sto™ks d9espè™esD le seuil d9extr—™tion est (xé àSv =ETHdfF …ne fois le seuill—ge ee™tuéD les ˜—n™s de poissons regroupent les pixelsvoisinsF „out d9—˜ordD à ™h—que ˜—n™D sont —sso™iés des p—r—mètres temporels et géogr—Ephiques X —nnéeD moisD jourD heureD l—titude et longitudeF ves des™ripteurs morpholoEgiques ™—r—™térisent l— forme du ˜—n™ de poissonsF in deux dimensionsD les p—r—mètressont l— longueurD l— h—uteurD le périmètreD l9—ireD l9élong—tionD et l— dimension fr—™t—leFv— troisième ™l—sse de des™ripteurs ™ontient les p—r—mètres ˜—thymétriques X l— sondeDl— profondeur du ˜—n™D l9—ltitude du ˜—n™D et l9indi™e d9—ltitude qui exprime l— positionrel—tive du ˜—n™ d—ns l— ™olonne d9e—uF in(nD les des™ripteurs énergétiques sont desp—r—mètres dire™tement issus des é™h—ntillons du sign—l numérisé fourni p—r le sondeurFhe ™ette su™™ession d9é™h—ntillons sont extr—its l— v—leur m—xim—le d9—mplitudeD l—moyenne des v—leurs d9—mplitudeD l9陗rt type des v—leurs d9—mplitudeD le ™oe0™ient dev—ri—tion des v—leurs d9—mplitude ‘IWP“D l9énergie glo˜—le rétrodiusée ‘IWP“D et l9indi™ede rétrodiusion de volume ‘IWP“F v9indi™e de rétrodiusion de volume ser— étudié pluspré™isément d—ns le ™h—pitre VF sl ser— —lors utilisé pour ™onvertir l9énergie —™oustiqueen ˜iom—sseF uelques des™ripteurs morphologiques et ˜—thymétriques sont représentés de m—Enière s™hém—tique à g—u™he de l— (gure UFIF he mêmeD à droite de l— (gure UFID nousreprésentons l9enveloppe simpli(ée du sign—l é™h—ntillonnéF gette enveloppe f—it —pp—Er—ître les é™hos dus —u ˜—n™ de poissons et ™eux dus —u fond de l— merF ƒeuls les é™hos—sso™iés —u ˜—n™ de poissons sont utilisés pour l9extr—™tion des p—r—mètresD ™omme p—r
  • 74. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESlxxx STRUCTURES Figure 7.1  A gauche, quelques descripteurs morphologiques et bathymé- triques. A droite, lenveloppe temporelle simpliée du signal rétrodiusé corres- pondante et quelques descripteurs énergétiques.exemple le ™—l™ul des moments d9ordre I et P de l— distri˜ution des v—leurs d9—mplitudeF sl existe ™ert—ines impré™isions ˜ien ™onnues en —™oustique h—lieutiqueF xous —vons—˜ordé d—ns l— se™tion TFP le ™—s des énergies rétrodiusées sousEestimées à ™—use del9o™™up—tion p—rtielle des volumes élément—ires p—r les ˜—n™s de poissonsF get é™h—nEtillonn—ge de l9esp—™e entr—îne —ussi une impré™ision d—ns les mesures des longueursdes ˜—n™sF in eetD il est impossi˜le de s—voir à quel endroit ex—™t sont positionnésles ˜—n™s d—ns le volume élément—ireF €lus l— sonde est gr—ndeD plus le di—mètre duvolume élément—ire —ugmenteD et plus ™es phénomènes d9impré™ision prennent de l9—mEpleurF einsiD si L est l— longueur réelle du ˜—n™D et D3dB le di—mètre du f—is™e—u àl— profondeur ™onsidéréeD —lors l— longueur mesurée du ˜—n™ de poissons Lm est unev—ri—˜le —lé—toire de densité de pro˜—˜ilité uniforme sur l9interv—lle ]L, L+2D3dB [F gel—entr—ine une erreur de mesure —ll—nt de 0 à 2D3dB D iFeF l— longueur est surestiméeF inrepren—nt l9exemple de l— se™tion TFPD pour une profondeur de SHmD l9erreur de mesurepeut —tteindre IPDPmD et pour profondeur de IHHmD elle peut —tteindre PRDRmF he plusDnotons que l9—ugment—tion du volume élément—ire —ve™ ™elle de l— sondeD provoque l—™orrél—tion des des™ripteurs 4 profondeur du ˜—n™ de poissons 4 et 4 longueur du ˜—n™de poissons 4D m—is —ussi des des™ripteurs 4 profondeur du ˜—n™ de poissons 4 et 4énergie du ˜—n™ de poissons 4F ges pro˜lèmes d9impré™ision des mesures liée —ux ˜—n™sde poissons ont l—rgement été évoqués d—ns des tr—v—ux —ntérieurs ‘IUT“ ‘IWT“ ‘IPT“‘PHQ“F7.3.2 Descripteurs des bancs 3D v9exploit—tion et le tr—itement des données —™quises p—r ™es sondeurs sont des thèmesémergents ‘IWU“ ‘IWV“ ‘IWW“ ‘PHH“ ‘PHP“F h—ns ™ette se™tionD l— méthode d9extr—™tion des
  • 75. 7.3. CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS lxxxi Figure 7.2  A gauche, un exemple dagrégation intra-ping. A droite, deux exemples successifs dagrégation intra-ping qui illustrent lagrégation inter-ping.˜—n™s de poissons p—r le sondeur multif—is™e—ux est présentée de m—nière simpli(éeFinsuiteD nous présentons les des™ripteurs —sso™iés à ™h—que ˜—n™F †oi™i les prin™ip—les ét—pes ™onstitutives de l9extr—™tion des ˜—n™s de poissons X IF Extraction des données 1D (intra-faisceau). in un ping donnéD d—ns ™h—que f—is™e—u indépend—mmentD on ™her™he à relier entre eux les é™h—ntillons d9un même ˜—n™F €our un ™ert—in seuil d9extr—™tion @™fF se™tion UFQAD ™el— est ee™tué à l9—ide d9un ™ritère de ™ontiguïtéD iFeF deux é™h—ntillons sont ™onsidérés ™omme ét—nt issus du même ˜—n™ de poissons si leur dist—n™e rel—tive n9ex™ède p—s une v—leur donnéeF PF Agrégation des données 2D (intra-ping ou inter-faisceau). in un ping donnéD les ˜lo™s indépend—nts identi(és à l9ét—pe I sontD ou ˜ien regroupés entre eux d9un f—is™e—u à l9—utreD ou ˜ien identi(és ™omme ne f—is—nt p—s p—rtie du même ˜—n™ de poissonsF v9uni(™—tion de deux ensem˜les de données dépend de ™ritères de ™ontiguïté verti™—ux et horizont—uxF €—r exempleD d—ns l— p—rtie g—u™he de l— (gure UFPD trois ˜—n™s de poissons ont été identi(ésF ve ˜—n™ I regroupe ™inq ˜lo™s pré—l—˜lement dé(nis à l9ét—pe ID tel que le regroupement implique des ˜lo™s issus du même f—is™e—u ou de f—is™e—ux voisinsF in rev—n™heD à l9inst—r du ˜—n™ PD ™ert—ins ˜lo™s identi(és à l9ét—pe I peuvent rester isolésD iFeF ils ne sont regroupés —ve™ —u™une —utre entitéF QF Agrégation des données 3D (inter-ping). gette ét—pe ™onsiste à identi(er les ˜—n™s de poissons qui peuvent être fusionnés d9un ping à l9—utreF ƒoit deux pings i et j issus de l9ét—pe PD iFeF pour lesquels les —grég—tions Ph sont ™onnuesF elorsD un ™ritère de ™ontiguïté permet d9uni(er une —grég—tion identi(ée d—ns le ping i —ve™ une —grég—tion identi(ée d—ns le ping j F sl se peut même qu9une —grég—tion du ping i f—sse le lien entre deux —grég—tions du ping j qui n9ét—ient p—s réunies ensem˜le lors de l9ét—pe PF €—r exempleD d—ns l— p—rtie droite de l— (gure UFPD le ˜—n™ R du ping i est —sso™ié —ux ˜—n™s I et P du ping j pour ne former qu9un seul
  • 76. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESlxxxii STRUCTURES Figure 7.3  Les descripteurs morphologiques sont ceux de la boîte englobante. Cette gure montre un banc de poissons avec sa boîte englobante. et même ˜—n™ de poissonsF €lus simplementD les ˜—n™s S et QD respe™tivement des pings i et j D sont —grégés pour ne former qu9un seul et même ˜—n™F gette méthode est étendue à l9ensem˜le des pings de l9é™hogr—mmeD de telle sorte qu9un ˜—n™ de poissons peut in™lure un gr—nd nom˜re de pings @—ut—nt que né™ess—ireAF gette ét—pe ™lôt l9extr—™tion de ˜—n™sD il reste m—inten—nt à extr—ire les p—r—mètres de ™h—que ˜—n™F ves formes des ˜—n™s de poissons pouv—nt être p—rti™ulièrement ™omplexes et —lé—EtoiresD il — été ™onvenu qu9une ˜oîte englo˜—nte orientée servir—it de référen™e pourles dimensions prin™ip—les des —grég—tionsF v9orient—tion de l— ˜oîte est ™—l™ulée enmoyenn—nt les —ngles des ve™teurs qui relient entre elles les sousEzones identi(ées lorsde l9ét—pe P de l9extr—™tion des ˜—n™s de poissonsF gomme représentés d—ns l— (gureUFQD d—ns l—quelle un ˜—n™ de poissons est représenté —ve™ s— ˜oîte englo˜—nteD les p—Er—mètres de longueurD de h—uteurD et de l—rgeur de l9—grég—tion sont ™eux de l— ˜oîteenglo˜—nteF in rev—n™heD le volume et le périmètre du ˜—n™ de poissons sont extr—itsdire™tement des positions des volumes élément—ires du ˜—n™ de poissonsF g9est —ussile ™—s des des™ripteurs ˜—thymétriquesD énergétiquesD temporelsD et géogr—phiques quisont dé(nis ™omme pour le sondeur monof—is™e—u @se™tion UFQAF gomme pour le sondeur monof—is™e—uD l— t—ille des volumes élément—ires ™roît —ve™l— profondeurD ™onduis—nt à une possi˜le surEestim—tion de l— longueur et de l— l—rgeurdes ˜—n™s de poissonsD et à une possi˜le sousEestim—tion des des™ripteurs énergétiquesFhe plusD ˜ien que l— zone insoni(ée soit import—nte et ˜ien é™h—ntillonnéeD il se peut queseule une p—rtie in(me d9un ˜—n™ de poissons soit o˜servée p—r le sondeurF einsiD ™ommepour le sondeur monof—is™e—uD l9im—ge représent—tive de l— zone de prospe™tion dépendde l— tr—je™toire du n—vireF €—r l— suiteD nous négligeons ™e phénomène en ™onsidér—ntque l9—ppro™he sto™h—stique permet m—lgré tout de f—ire v—loir les v—ri—˜ilités entreplusieurs groupes de poissonsF
  • 77. 7.3. CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS lxxxiii7.3.3 Performances de classication : Bancs 2D h—ns ™ette se™tionD —(n d9illustrer le pouvoir dis™rimin—nt des des™ripteurs de ˜—n™sde poissons PhD nous retrouvons les résult—ts o˜tenus d—ns l— thèse de g—rl— ƒ™—l—˜rin‘IUT“ pour le jeu de données hSF ve jeu de données hS est ™elui utilisé p—r g—rl— ƒ™—l—E˜rin d—ns s— thèse ‘IUT“F sl est issu de II ™—mp—gnes de pê™hes et d9o˜serv—tions —™ousEtiques @sondeur monof—is™e—uA d—ns le golfe de q—s™ogne X wi„i†eg @HPGIIGIWVWDPP ™h—lut—gesAD heeq @IQGHRGIWWHD PV ™h—lut—gesAD e…‚e @IIGHVGIWWHD PT ™h—luEt—gesAD i„e€ @HQGHWGIWWHD PR ™h—lut—gesAD heeq @IHGHRGIWWID QQ ™h—lut—gesAD i„e€@PTGHTGIHHID PQ ™h—lut—gesAD e…‚e @HVGIHGIWWID PR ™h—lut—gesAD heeq @IRGHRGIWWPDQV ™h—lut—gesAD i„e€ @HRGIIGIWWPD PH ™h—lut—gesAD i„e€ @PIGHSGIWWQD IT ™h—lut—gesADi‚eq @HSGHTGIWWQD PU ™h—lut—gesAF gh—™un des ˜—n™s de l— ˜—se de données — été idenEti(é p—r un expert de l— m—nière suiv—nteF it—nt donné un ™h—lut—ge monospé™i(queD les—grég—tions des é™hogr—mmes —™quis —u moment du ™h—lut—ge sont ™onsidérées ™ommeét—nt des ˜—n™s de poissons de l9espè™e pê™héeF he ™ette f—çonD à p—rtir des TH ™h—luEt—ges monospé™i(ques des II ™—mp—gnesD IRIW ˜—n™s de poissons ont été identi(és @IUW˜—n™s de s—rdineD RUV ˜—n™s d9—n™hoisD TTU ˜—n™s de ™hin™h—rdD et WS ˜—n™s de merl—n˜leuAF v— simul—tion ™onsiste à s™inder —lé—toirement l9ensem˜le des données en un sousensem˜le d9—pprentiss—ge et sous ensem˜le de testF …ne fois l— ™l—ssi(™—tion ee™tuéeDun t—ux de ˜onne ™l—ssi(™—tion est ™—l™uléF gette s™ission —lé—toire —ve™ remise estee™tuée IHH fois et un t—ux moyen de ˜onne ™l—ssi(™—tion est déterminéF h—ns s—thèseD g—rl— ƒ™—l—˜rin utilis—it un ™l—ssi(eur simple X une —n—lyse dis™rimin—nte liné—irede pisherF h—ns le t—˜le—u UFID les t—ux moyens de ˜onne ™l—ssi(™—tion sont —0™hés pourl9—n—lyse dis™rimin—nte liné—ire de pisher @ehvpA @p—ge xxxv du présent m—nus™ritADl9—lgorithme iw @p—ge xxviii du présent m—nus™ritAD les m—™hines à ve™teur de support@ƒ†wA @p—ge xxxix du présent m—nus™ritAD et les forêts —lé—toires @peA @p—ge xlix duprésent m—nus™ritAF ve ™ode ƒ†w @4 vi˜Eƒ†w 4A est disponi˜le en ligne sur internet‘PHR“F ve p—r—mètre du noy—u v—ut SD ™elui qui —utorise des erreurs sur les m—rges est(xé à IHHF ev—nt tout tr—itementD les données sont normées et ™entréesF ADLF EM SVM FA UHDT7 TTDW7 VRDW7 VWDQ7 Tableau 7.1  Comparaison des performances de classication du jeu de don- nées de bancs de poissons D5 pour diérents classieurs. Le taux moyen de bonne classication est reporté pour lanalyse discriminante linéaire de Fisher (ADLF) , lalgorithme EM (EM), les machines à vecteur de support (SVM), et les forêts aléatoires (FA). „out d9—˜ordD ™es résult—ts montrent à quel point le ™hoix du ™l—ssi(eur est imporEt—ntF in eetD les ™on™lusions génér—les —près l9utilis—tion de l9—n—lyse dis™rimin—ntede pisher @ehvpA sont —ssez pessimistes X seuls UH7 des ˜—n™s de poissons sont ™orEre™tement ™l—ssésF sl est —lors légitime de se dem—nder si l— ™l—ssi(™—tion de ˜—n™s estpossi˜leF in rev—n™heD les résult—ts o˜tenus —ve™ les forêts —lé—toires @peA sont ˜e—uE™oup plus optimistes X W ˜—n™s de poissons sur IH sont ™orre™tement l—˜ellisésF h—ns ™e
  • 78. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESlxxxiv STRUCTURES™—sD l— ™l—ssi(™—tion de ˜—n™s de poissons sem˜le don™ être une voie prometteuseF gesrésult—ts montrent —ussi l— pertinen™e du ™hoix des forêts —lé—toires ™omme ™l—ssi(eurpour ™es données p—r r—pport à des ™l—ssi(eurs du type iw ou ƒ†wF gel— justi(e lef—it que nous —yons développé un ™l—ssi(eur f—i˜lement supervisé qui s9—ppuie sur les—r˜res de dé™ision et les forêts —lé—toiresF h—ns l— thèse de g—rl— ƒ™—l—˜rin ‘IUT“D les m—Etri™es de ™onfusion ét—ient représentéesF xous f—isons de même d—ns l— (gure UFR pourl9—n—lyse dis™rimin—nte de pisher et pour les forêts —lé—toiresF gon™ern—nt le modèlede ™l—ssi(™—tion ehvpD les ™on™lusions sont qu—siment les mêmes que d—ns l— thèse deg—rl— ƒ™—l—˜rin X les t—ux de ™l—ssi(™—tion sont ˜—s et l— ™onfusion l— plus forte se situeentre l9—n™hois et le ™hin™h—rd @PU7 des —n™hois sont ™l—ssés p—rmi les ™hin™h—rdsAF inrev—n™heD l— m—tri™e de ™onfusion o˜tenue —ve™ les forêts —lé—toires donne un tout —utrereg—rd des perform—n™es de ™l—ssi(™—tion @à droiteD d—ns l— (gure UFRAF gette foisD lest—ux de ™l—ssi(™—tion intr— espè™es sont élevés et l— ™onfusion l— plus import—nte sesitue entre l— s—rdine et le ™hin™h—rd @IS7 des ˜—n™s de s—rdines sont ™l—ssés p—rmi les˜—n™s ™hin™h—rdsAF einsiD nous ™onst—tons de m—nière qu—ntit—tive queD sous ™ondition du ™hoix d9un™l—ssi(eur ™orre™tD les des™ripteurs de ˜—n™s de poissons fournis p—r le sondeur monoEf—is™e—u permettent d9ee™tuer une ™l—ssi(™—tion —utom—tique plus qu9—™™ept—˜leF get—ux de re™onn—iss—n™e @VWDQ7A est —™™ept—˜le du point de vue du dom—ine —ppli™—tifFin eetD —ve™ un t—ux d9erreur d9environ IH7D les méthodes —utom—tiques permettentde ™onsolider une expertise ou d9ee™tuer un ™hoixF gepend—ntD l— ™l—ssi(™—tion de ˜—n™s de poissons p—r —pprentiss—ge supervisé —utoEm—tique possède des limites intrinsèquesF €remièrementD l— représent—tivité des ˜—n™sest diérentes dur—nt les périodes de ™h—lut—ge et de prospe™tion @l— vitesse du n—vireest diérente ™e qui ™h—nge l— résolution des im—gesAF heuxièmementD ™ette —ppro™heest restreinte —ux ™h—lut—ges monoEspé™i(ques dont l9o˜tention est di0™ile et qui nepermettent p—s de modéliser les mél—nges d9espè™esF7.4 Classication et reconnaissance des ensembles de bancs de poissons7.4.1 Préambule v— ™—mp—gne gveƒƒHV3 —v—it pour ˜ut d9—™quérir de l— donnée multif—is™e—ux —(nde mieux —ppréhender ™e nouve—u type d9inform—tions et d9en extr—ire des ™ompos—ntesdes™riptivesF gepend—ntD l9—n—lyse visuelle des é™hogr—mmes Qh o˜servés — ™h—ngé l—per™eption de l9org—nis—tion des ˜—n™s de poissonsF sl est —dmis que l— distri˜ution sp—Eti—le des ˜—n™s de poissons est fond—ment—le pour des o˜je™tifs de dis™rimin—tions ‘IWS“Dm—is le sondeur multif—is™e—ux intensi(e ™ette idéeF elors que les ˜—n™s de poissons —pEp—r—iss—ient distin™ts et dé(nis —ve™ le sondeur monof—is™e—uD l9—jout d9une troisièmedimension sp—ti—le f—it —pp—r—ître une multitude de ˜—n™s s—tellites dius et des formes 3 Campagne océanographique dune semaine opérée par lIfremer en juin 2008 à bord du Thalassa,lobjectif était lacquisition de données multifaisceaux.
  • 79. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS lxxxv Figure 7.4  Matrices de confusion obtenues après la classication du jeu de données monofaisceau D5 pour deux classieurs : lanalyse discriminante linéaire de Fisher (ADLF) et les forêts aléatoires (FA).insoupçonnéesF v— notion même de ˜—n™s est remise en ™—useD l—iss—nt l— pl—™e à un™on™ept plus génér—le X les 4 —grég—tions 4F €—r exempleD d—ns l— (gure UFSD plusieurs ™—sd9—grég—tions sont représentés X l— grosse ˜oule dense @en h—utD à g—u™heAD les n—ppes de˜—n™s de poissons tors—dés de formes —lé—toires @en h—utD à droiteAD l— nuée de poissons@en ˜—sD à g—u™heAD et les petits ˜—n™s denses ép—rses @en ˜—sD à droiteAF v— vision dusondeur monof—is™e—u ser— pertinente pour l— ˜oule denseD p—s pour les —utres ™—s X àl— pl—™e des ˜—n™s tors—désD le sondeur monof—is™e—u peut déte™ter des petites t—™hes—™™oléesD et à l— pl—™e d9une nuée de werl—ns fleusD le sondeur monof—is™e—u peutdéte™ter un ˜—n™ ™entr—l environné de ˜ruitF €our mieux —ppréhender l9inform—tion ™ontenue d—ns les im—gesD on peut envis—Eger une —ppro™he —ltern—tive qui tient ™ompte à l— fois de l9org—nis—tion sp—ti—le des—grég—tions et des ™—r—™téristiques des ˜—n™s de poissonsF gontr—irement —ux —n—lyses—ntérieures PhD toute l9inform—tion doit être exploitéeF einsiD nous n9ee™tuons p—s de(ltr—ge des ˜—n™s trop petitsF gel— permet de prendre en ™onsidér—tion les é™hos isolésqui peuvent être des poissons éloignés du ˜—n™ ™entr—lF in outreD si ™es é™hos isoléssont du pl—n™tonD il f—ut les prendre en ™ompte d—ns l9—n—lyse glo˜—le ™—r ils peuventêtre représent—tifs de l9é™osystème lo™—l qui f—it que ™ert—ines espè™es sont présentes etqui ™ontr—int le ™omportement de ™es espè™esF h—ns le ™omportementD sont in™lues l—position des ˜—n™s d—ns l— ™olonne d9e—uD l— t—ille des ˜—n™sD leur morphologieD et leurdistri˜ution sp—ti—leF7.4.2 Descripteur global proposé gert—ins tr—v—ux proposent l9—n—lyse de des™ripteurs glo˜—ux simples à p—rtir dedonnées issues du sondeur monof—is™e—u ‘PHS“ ‘PHT“F €—r exempleD d—ns ‘PHT“D l9extr—™E
  • 80. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESlxxxvi STRUCTURES Figure 7.5  Il existe diérents types dagrégations allant de la grosse sphère dense, à la nuée de voxels.tion prélimin—ire des ˜—n™s de poissons est rejetée ™—r le (ltr—ge des ˜—n™s trop petitsest vu ™omme une suppression d9inform—tions dis™rimin—ntesF e l— pl—™eD une —utre méEthode pour extr—ire des stru™tures est proposée @on ne p—rle —lors plus de ˜—n™s m—isde 4 p—t™h 4AF insuiteD des des™ripteurs glo˜—ux sont suggérés et —sso™iés à l9im—ge™onsidéréeF €—rmi ™es des™ripteurs glo˜—uxD on peut ™iter l9énergie moyenne rétrodiuEsée p—r tous les p—t™hs de l9im—geD l— dist—n™e moyenne entre les p—t™hs de l9im—geD l—densité des p—t™hsD l9o™™up—tion sp—ti—le des p—t™hsD et™F xous proposons une —ppro™he —n—logue qui repose sur l9—n—lyse st—tistique de l— disEtri˜ution de stru™tures élément—ires —u sens d9un ™ritère de seuill—ge et de ™ontigüitéFv9org—nis—tion sp—ti—le de ™es stru™tures élément—ires @les ˜—n™s de poissonsA dépendde l— n—ture des poissons o˜servésF €—r exempleD l— distri˜ution des ˜—n™s d—ns l9im—gepeut être homogène ou hétérogèneF einsiD l9im—ge des —grég—tions peut être vue ™ommeune ré—lis—tion d9un pro™essus sto™h—stique pon™tuelD ™h—que point du pro™essus repréEsent—nt le ™entre de gr—vité d9un ˜—n™ de poissonsF h—ns ™e ™ontexteD nous proposonsun des™ripteur st—tistique qui ™—r—™térise l9org—nis—tion sp—ti—le du pro™essus pon™tuelFhe plusD les ˜—n™s peuvent être ™—tégorisésD en fon™tion de leur n—tureD de telles sortesqu9une —n—lyse plus (ne de l— distri˜ution est ee™tué X il s9—git —lors de ™—r—™térisé l—distri˜ution de ˜—n™s de même ™—tégorieD ou de ™—tégorie diérenteF gette extension del— méthode ™orrespond à l9étude d9un pro™essus pon™tuel m—rquéF K de Ripley. ve K de ‚ipley ‘PHU“ ‘PHV“ regroupe une f—mille de méthodes qui exprime des st—Etistiques sur les dist—n™es entre les exemples du pro™essusF €—r exempleD l9—n—lyse devoisin—ge du premier ordre ‘PHU“ ™onduit à re™her™her l— qu—ntité moyenne de points@KA d—ns un volume élément—ire B de l9esp—™e X K= ρ(v)dv @UFIA B
  • 81. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS lxxxviioù ρ(v)dv est l— pro˜—˜ilité du nom˜re de points d—ns un volume in(nitésim—l dv™entré en v F gette —n—lyse du premier ordre m—nque de (nesseF einsiD il existe une perted9inform—tion sur les dist—n™es interEexemplesF he plusD les inform—tions essentielles desstru™tures ™omplexesD qui impliquent des distri˜utions hétérogènes —ve™ plusieurs motifsem˜oités à plusieurs é™hellesD sont noyées d—ns l— moyenneF v9—n—lyse de voisin—ge duse™ond ordre ‘PHW“ ‘PIH“D qui ™onsidère des st—tistiques sur les p—ires de pointsD est mieux—d—ptée pour l— ™—r—™téris—tion des stru™tures ™omplexesF gette foisD l9—n—lyse ™onsisteà re™her™her l— qu—ntité moyenne de ™ouple de points d—ns un volume élément—ire B X 1 K= ρ(2) (x1 , x2 )dx1 dx2 @UFPA V V Boù ρ(2) (x1 , x2 )dx1 dx2 est l— densité du nom˜re de p—ires de points d—ns les volumesin(nitésim—ux dx1 et dx2 ™entrés en x1 et x2 F † est le volume tot—l de l9esp—™e d9—n—lyseFv— densité ρ(2) (x1 , x2 ) exprime l— ™orrél—tion entre les pointsF ƒi le pro™essus —lé—toireest isotrope @inv—ri—n™e en tr—nsl—tionA et st—tionn—ire —u se™ond ordreD —lors l— densitéρ(2) (x1 , x2 ) ne dépend que de l— dist—n™e entre les points X ||x1 − x2 | |F in pr—tique Best une ˜oule de r—yon r et l— st—tistique K(r) peut être estimée ™omme suit X N 1 K(r) = δij (||xi − xj | | ≤ r) @UFQA V i=joù δij est une fon™tion qui renvoie I si l— ™ondition ||xi − xj | | ≤ r est respe™téeD HsinonF Processus ponctuel marqué. v9—ppro™he pré™édente peut être étendue —u ™—s des pro™essus pon™tuels m—rqués‘PIH“F ƒoit {xn }1≤N une ré—lis—tion p—rti™ulière d9un pro™essus —lé—toireF ƒi une étiquetteest —ttri˜uée à ™h—que point xn D —lors le pro™essus est m—rquéF …ne ré—lis—tion dupro™essus m—rqué est notée {xn , mn }1≤N F …n m—rqu—ge est o˜tenu p—r ™—tégoris—tiondes o˜jets en sous ™l—ssesF €—r exemple ‘PII“D pour l9—n—lyse de l— distri˜ution deszones forestièresD les —r˜res sont pré—l—˜lement ™l—ssés d—ns des ™—tégories distin™tesFhe ™ette f—çonD il est ™on™ev—˜le de r—nger les —r˜res p—r ™—tégorie de t—illeF e l9inst—rde ‡en ‘PIP“ qui mêle les pro™essus pon™tuels m—rqués —ve™ du urige—ge @une méthoded9interpol—tionAD nous envis—geons d9ee™tuer une ™l—ssi(™—tion non supervisée —(n deregrouper les points o˜servés en ™—tégoriesF †oi™i ™omment nous pro™édonsF gh—que˜—n™ de poissons est ™—r—™térisé p—r un ™entre géogr—phique dont les ™oordonnées sontxn D et p—r un ensem˜le de des™ripteurs @les p—r—mètres morphologiques et énergétiquesAFges des™ripteurs prennent leur v—leur d—ns l9ensem˜le ™ontinu des réelsF e(n d9o˜tenirun ensem˜le dis™ret de m—rquesD nous —ppliquons l9—lgorithme des uEmoyennes qui estprésenté d—ns l— se™tion PFQ du ™h—pitre PF pin—lement les ˜—n™s de poissons ne sontplus —sso™iés à un ve™teur de p—r—mètres ™ontinusD m—is un entier n—turel résume ses™—r—™téristiquesF v9expression @UFQA du K de ‚ipley d—ns le ™—s s—ns m—rque est —d—ptée —u ™—sdes pro™essus pon™tuels m—rquésF gette foisD plutôt que d9év—luer le nom˜re moyend9exemples d—ns le volume élément—ire B D l— m—tri™e de ™oo™™urren™e des ™ouples dem—rques d—ns le volume élément—ire est estiméeF gel— revient à estimer le nom˜re
  • 82. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESlxxxviii STRUCTURES Figure 7.6  Volume dintersection entre une boule et un prisme trapézoïdal.d9o™™urren™e moyen de ™h—que ™ouple de m—rque d—ns un volume élément—ire B F ƒoitΓ(r) = {Γp,q (r)}1≤p,q≤M l— m—tri™e de ™oo™™urren™e —ve™ M le nom˜re de m—rquesD—lors les ™ompos—ntes de l— m—tri™e de ™oo™™urren™e s9expriment ™omme suit X N N 1 Γp,q (r) = δi (mi = p)δj (mj = q)δij (||xi − xj | | ≤ r) @UFRA i Vi (r) j=ioù δij est une fon™tion qui renvoie I si l— ™ondition ||xi − xj | | ≤ r est respe™téeD HsinonD et δi est une fon™tion qui renvoie I si l— ™ondition mi = p est respe™téeD H sinonFVi (r) est un ™oe0™ient de norm—lis—tionD il représente l9interse™tion entre le volumeV et l— ˜oule B de r—yon rF v9—v—nt—ge du m—rqu—ge est de regrouper ensem˜le desdonnées simil—iresF vors de l— ™onstru™tion de l— m—tri™e de ™oo™™urren™eD l— questionest de s—voir quels sont les groupes qui inter—gissent entre euxF €—r exempleD il n9estp—s —˜surde de penser qu9une ™l—sse d9im—ges implique plusieurs types de groupesd9exemplesF Correction des eets de bord. ve ™oe0™ient de pondér—tion Vi (r) d—ns l9expression @UFRA permet de ™onsidérer leseets de ˜ordF h—ns le ™—s du sondeur monof—is™e—uD le volume V peut être estimép—r un re™t—ngle et le volume B est un disque ™entré en xi D —lors il existe des formulespour ™—l™uler Vi (r) pour tout xi ‘PHW“F h—ns le ™—s du sondeur multif—is™e—uxD ™e ™—l™ulest moins évidentF in eetD une fois que les zones —veugles générées p—r le sondeurmultif—is™e—ux sont suppriméesD V est un prisme à ˜—se de tr—pèze ™omme représentéd—ns l— (gure UFTF B est une ˜oule ™entrée en xi F €lusieurs ™—s de (gure sont possi˜lesen fon™tion du r—yon r de l— ˜oule et de l— position du ™entre xi de l— ˜ouleF „roisexemples sont représentés d—ns le h—utD à droiteD de l— (gure UFT d—ns le pl—n {Y, Z} Xle ™—s de l— ˜oule qui ™oupe à l— fois le pl—n inférieur et un pl—n l—tér—l du prismetr—pézoïd—lD le ™—s de l— ˜oule qui ™oupe les deux pl—ns l—tér—ux et le pl—n supérieurdu prisme tr—pézoïd—leD et le ™—s de l— ˜oule qui ™oupe tous les pl—ns à l— foisF h9—utres
  • 83. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS lxxxixexemples pourr—ient être sign—lésD ™omme l— ˜oule qui englo˜e tot—lement le prismetr—pézoïd—lF ges diérents ™—s posent pro˜lème pour le ™—l™ul de Vi (r) et nous voulonséviter de tr—iter ™h—que ™—s indépend—mmentF he ™e f—itD nous proposons une formulegénér—le qui permetD quelque soit l— t—ille de l— ˜oule et quelque soit l— position xi d—nsle prisme tr—pézoïd—lD de ™—l™uler le volume Vi (r)F †oi™i l— méthodeF €l—çonsEnous d—nsle pl—n {Y, Z} tr—nsverse —u n—vireD nous dé(nissons les gr—ndeurs suiv—ntes X IF S11 : ƒurf—™e extérieure du disque B p—r r—pport —u premier pl—n l—tér—l du prisme tr—pézoïd—lF PF S12 : ƒurf—™e extérieure du disque B p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF QF S13 : ƒurf—™e extérieure du disque B p—r r—pport —u deuxième pl—n l—tér—l du prisme tr—pézoïd—lF RF S14 : ƒurf—™e extérieure du disque B p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lF SF S21 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du premier pl—n l—tér—l et p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lF TF S22 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du premier pl—n l—tér—l et p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF UF S23 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du deuxième pl—n l—tér—l et p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF VF S24 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du deuxième pl—n l—tér—l et p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lFS11 D S12 D S13 D S14 D S21 D S22 D S23 et S24 sont représentées d—ns l— (gure UFTF yn montre—isément que l— surf—™e d9interse™tion Ai (r) entre le disque ™entré en xi de r—yon r et l—™oupe tr—nsvers—le du prisme tr—pézoïd—le @d—ns le pl—n {Y, Z}AD s9exprime en fon™tionde {Sij }1≤i≤2,1≤j≤4 de l— m—nière suiv—nte X 2 4 Ai (r) = −3S + Sij @UFSA i=1 j=1yù S est l— surf—™e du disque de r—yon rF sl reste ensuite à intégrer sur l— troisièmedimension @X A pour o˜tenir le volume d9interse™tion (n—l X Vi (r) = Ai (r(x))dx @UFTA X Interprétation et sens physique. v— première ™on™lusion qui se dég—ge des o˜serv—tions —™oustiques est queD en fon™Etion des espè™es de poissons présentes d—ns les im—ges et des spé™i(™ités environnemenEt—les et géogr—phiquesD les ˜—n™s de poissons se ™—r—™térisent p—r des formesD des t—illesDdes réponses énergétiquesD et des positions v—ri—˜lesF he plusD l— plup—rt des im—gessont ™onstituées de mél—nges d9espè™es donn—nt n—iss—n™e à des im—ges qui ™on™entrentdes mél—nges de ˜—n™s de poissons de n—ture diérenteF €—r exempleD ™ert—ins é™hoEgr—mmes sont ™onstitués à l— fois de gros ˜—n™s de s—rdines très rétrodius—nts et de
  • 84. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESx™ STRUCTURESpetits ˜—n™s de ™hin™h—rds moins énergétiques et plus diusF ve m—rqu—ge permet demodéliser ™es o˜serv—tionsF in eetD le ™lustering est un moyen d9—gréger entre eux des˜—n™s d9une même ™—tégorieD p—r exemple des ˜—n™s sem˜l—˜les en t—ille et en énergieFeinsiD l9histogr—mme des ™lusters permet d9identi(er quels sont les types de ˜—n™s préEsents d—ns les im—gesF €—r exempleD d—ns le ™—s idé—lD des im—ges monoEspé™i(ques nesont ™omposées que d9un seul type de ˜—n™s de poissonsD —lors que des im—ges pluriEspé™i(ques regroupent plusieurs types d9—grég—tionsF v9histogr—mme des ™lusters doitdon™ être représent—tif des mél—nges de types d9—grég—tionsD et p—r ™onséquent desmél—nges d9espè™esF v— se™onde ™on™lusion des expertsD rel—tivement —ux o˜serv—tions des im—ges —™ousEtiquesD ™on™erne l— distri˜ution des —grég—tionsF €remièrementD ils ont ™onst—té quel9org—nis—tion sp—ti—le des ˜—n™s de poissons dépend des espè™es présentes d—ns lesim—ges et des ™—r—™téristiques environnement—les et géogr—phiquesF €—r exempleD lesmél—nges d9—n™hois et de ™hin™h—rds peuvent s9org—niser p—r ™ou™hesD les ˜—n™s d9—nE™hois ét—nt —uEdessus des ˜—n™s de ™hin™h—rdsF ges ™ou™hes sont plus ou moins dé(niesDpouv—nt être l— sour™e de ™ou™hes pluriEspé™i(quesF heuxièmementD les é™hogr—mmesmontrent que l— densité des ˜—n™s de poissons d—ns les im—ges peut être v—ri—˜le Xhomogène ou hétérogène p—r endroitF €—r exempleD l— distri˜ution sp—ti—le des ˜—n™sde s—rdines est —ssez homogène d—ns les im—gesD —lors que ™elle des mél—nges d9—n™hoiset de ™hin™h—rds peut se ™—r—™tériser p—r une densité qui dé™roît du fond vers l— surf—™ede l— merF v9utilis—tion du u de ‚ipleyD étendu —u ™—s d9un pro™essus m—rquéD permetnon seulement de ™—r—™tériser l9existen™e de ™ert—ines ™l—sses de ˜—n™s de poissons d—nsles im—gesD m—is —ussi de modéliser l— v—ri—˜ilité des distri˜utionsF in eetD ™ette te™hEnique exprime quels types de ˜—n™s de poissons sont regroupés entre eux et —ve™ quellefréquen™e moyenneF €renons le ™—s idé—l de deux ™ou™hes de poissons dont les ˜—n™ssont m—rqués distin™tementD —lors le u de ‚ipley permet de spé™i(er les densités d—ns™h—™une des ™ou™hesD m—is —ussi l— densité de l9interse™tion des deux ™ou™hes vi— les™oo™™urren™esF7.4.3 PerformancesJeu de données ve jeu de données hT provient de l— ™—mp—gne gveƒƒHV d9o˜serv—tion —™oustiqueet de pê™he d—ns le golfe de q—s™ogneF v9—v—nt—ge de ™es données est l9insoni(™—tion del9esp—™e p—r les deux types de sondeur en même temps @sondeur monof—is™e—u et sonEdeur multif—is™e—uxAF gel— permet de ™omp—rer le pouvoir dis™rimin—nt des des™ripteursQh proposés p—r r—pport à des —ppro™hes Ph ™l—ssiquesF „rois ™l—sses d9é™hogr—mme ontété identi(éesD et pour que l— ˜—se d9—pprentiss—ge soit su0s—mment volumineuseD lesé™hogr—mmes sont divisés p—r qu—rts de millesF einsiD l— ˜—se de données est ™omposéde X @—A TQ im—ges de s—rdines et de ™hin™h—rdsD @˜A UP im—ges d9—grég—tions denses ettors—dées d9—n™hois et de ™hin™h—rdsD et @™A VU im—ges ™orrespond—nts à des —grég—tionsd9—n™hois et de ™hin™h—rds peu denses et ép—rsesF h—ns l— (gure UFUD nous donnons desexemples d9im—ges pour ™h—™une de ™es trois ™l—ssesF xotre o˜je™tif est que le des™ripEteur glo˜—l puisse diéren™ier des im—ges en fon™tion de l9org—nis—tion des —grég—tions
  • 85. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS x™i Figure 7.7  En bas à droite : Histogramme des sondes moyennes pour la classe (a) (gros bancs de sardines bien dénis), la classe (b) (bancs épars pou- vant être très denses mais plutôt de forme sphérique), et la classe (c) (bancs diormes tels que la densité des bancs dans limage est importante).m—is —ussi en fon™tion de l— forme des —grég—tions des im—gesF einsiD l— ™l—sse @—A se™—r—™térise p—r des gros ˜—n™s de s—rdines ˜ien dé(nis noyés d—ns des nuées de voxelsisolés qui ™orrespondent à des poissons isolésD des petits ˜—n™s de poissons isolés ou desnuées de pl—n™tonF v— ™l—sse @˜A est ™onstituée de ˜—n™s ép—rs pouv—nt être très densesm—is plutôt de forme sphériqueF in(nD l— ™l—sse @™A est ™omposée de ˜—n™s diormestels que l— densité de ˜—n™s d—ns l9im—ge soit import—nteF v9o˜je™tif est d9—voir un desE™ripteur glo˜—l qui renseigne à l— fois sur l— n—ture des ˜—n™s de l9im—geD m—is —ussi surl9org—nis—tion des ˜—n™s d—ns l9im—geD don™ si le des™ripteur glo˜—l —rrive à diéren™ier™es trois ™l—ssesD notre o˜je™tif est —tteintF €our inform—tionD d—ns l— (gure UFUD l9histoEgr—mme des sondes moyennes des im—ges est tr—™é pour ™h—™une des trois ™l—ssesF hemêmeD pour mieux se représenter l— donnéeD nous —0™hons les distri˜utions sp—ti—leset temporelles d—ns l— (gure UFVF h9ores et déjàD l9o˜serv—tion des sondes moyenneset des distri˜utions sp—ti—les et temporelles nous permet de ™on™lure qu9une ™l—sse sedét—™he des —utres X l— s—rdineD —lors que les deux —utres ™l—ssesD ™omposées d9—n™hoiset de ™hin™h—rdsD sont simil—ires en distri˜utions sp—ti—lesD temporellesD et de sondesFAnalyse statistique des descripteurs h—ns un premier tempsD —(n de mesurer l9import—n™e de ™h—que des™ripteur d—nsle pro™essus de dis™rimin—tionD nous ee™tuons une —n—lyse de l— v—ri—n™e ‘PIQ“ @enov—en —ngl—is pour 4 ex—lysis yf †—ri—n™e 4AF ƒous ™onditions que les v—ri—n™es des disEtri˜utions de ™h—que ™l—sse sont ég—les et que les o˜serv—tions sont indépend—ntesD ™etest permet de qu—nti(er l9陗rt des moyennes des distri˜utions de ™h—que ™l—sse pourun des™ripteur donnéF einsiD plus ™et 陗rt est import—ntD plus le des™ripteur est disE™rimin—nt pour les ™l—sses ™onsidéréesF ve prin™ipe est le suiv—ntF …n test d9hypothèse
  • 86. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESx™ii STRUCTURES Figure 7.8  Distribution spatiale (à gauche) et temporelle (à droite) du jeu de données D6 issu de la campagne CLASS08. A gauche, un zoom est eectué pour montrer la distribution spatiale des deux classes composées de mélange dan- chois et de chinchards, lune étant composée dimages denses avec des bancs torsadés (représentées par des points), lautre dimages peu denses avec des bancs dius (représentées par des cercles).st—tistique permet de tester l9ég—lité entre l— v—ri—n™e interE™l—sses et l— v—ri—n™e intr—E™l—sses @™fF se™tion QFQFI du ™h—pitre QAF ve r—pport F entre ™es deux v—ri—n™es donneune idée de l— sép—r—tion des distri˜utions de ™h—que ™l—sseF €lus F est gr—ndD plusl9hypothèse d9ég—lité des moyennes des distri˜utions est f—i˜leD et plus l— ™h—n™e qu9une™l—sse se dét—™he des —utres est élevéeF in outreD un t—ux d9erreur de S7 est (xé tel queF ne peut p—s dép—sser un seuil théoriqueF euEdelà de ™e seuil théoriqueD l9hypothèsed9ég—lité des moyennes est rejetéeF v— pro˜—˜ilité que F soit inférieur —u seuil théoriqueest donnée p—r l— v—leur pF ƒi p est pro™he de ID —lors les moyennes des distri˜utions de™h—que ™l—sse sont identiques pour le des™ripteur ™onsidéréF ƒi p est pro™he de HD —lors—u moins une des moyennes des distri˜utions des ™l—sses dière des —utresF pin—lementDune enov— se résume en deux ét—pes X @—A véri(er l— v—leur p pour év—luer l— (—˜ilité dutest st—tistique et @˜A mesurer F qui renseigne sur le degré de sép—r—tionF xotons quele résult—t de l9étude est ˜i—isé si les distri˜utions sont multiEmod—lesD si les v—ri—n™esdes distri˜utions ne sont p—s ég—les entre les ™l—sses et si les o˜serv—tions ne sont p—sindépend—ntesF ves résult—ts sont —0™hés d—ns le t—˜le—u UFPF €our le jeu de données hTD nous™omp—rons le pouvoir dis™rimin—nt de quelques des™ripteurs issus des im—ges Qh et desim—ges Ph ™orrespond—ntesF ginq des™ripteurs glo˜—ux sont extr—its X l— densité @lenom˜re de ˜—n™s de poissons divisé p—r le volume de l9é™hogr—mmeAD le pour™ent—ged9o™™up—tion sp—ti—le @le volume tot—l o™™upé p—r les ˜—n™s de poissons divisé p—r levolume de l9é™hogr—mmeAD l— dist—n™e médi—ne entre les ˜—n™s de poissonsD l9indi™e de
  • 87. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS x™iii sm—ge sm—ge sm—ge sm—ge hes™ripteur x—ture QhD PhD QhD PhD ™l—sses ™l—sses ™l—sses ™l—sses {IDPDQ} {IDPDQ} {IDP} {IDP} Densité glo˜—l p=0 p = 1e − 16 p = 0.1 2e − 5 F = 172 F = 45 F =2 F = 19 Occupation glo˜—l p = 1e − 8 p = 2e − 6 p = 1e − 9 p = 1e − 16 spatiale F = 19 F = 13 F = 42 F = 93 globale Distance glo˜—l p = 1e − 14 p = 0.6 p = 0.8 p = 0.8 médiane F = 37 F = 0.5 F = 1e − 2 F = 4e − 2 Indice de glo˜—l p = 1e − 11 p = 7e − 5 p = 1e − 7 p = 6e − 6 fragmentation F = 29 F =9 F = 30 F = 22 Sonde glo˜—l p=0 p=0 p = 9e − 8 p = 2e − 8 moyenne F = 526 F = 410 F = 32 F = 35 Profondeur lo™—l p=0 p=0 p=0 p=0 F = 6900 F = 778 F = 2300 F = 140 Longueur lo™—l p=0 p=0 p = 1e − 4 p = 1e − 3 F = 247 F = 44 F = 14 F = 10 Largeur lo™—l p=0 p=0 p=0 p = 1e − 6 F = 484 F = 1900 F = 124 F = 23 Hauteur lo™—l p=0 p = 2e − 16 p=0 p = 0.8 F = 217 F = 36 F = 74 F = 5e − 2 Volume lo™—l p=0 p = 1e − 5 p = 0.4 p = 3e − 5 F = 73 F = 11 F = 0.5 F = 12 Occupation lo™—l p=0 p=0 p = 0.2 p = 4e − 7 spatiale F = 242 F = 60 F =1 F = 25 locale Sv lo™—l p=0 p=0 p = 1e − 7 p = 0.4 F = 612 F = 45 F = 28 F = 0.6 Tableau 7.2  Analyse de la variance (Anova) sur le jeu de données D6, en considérant les classes " Anchois-chinchard peu dense ", " Anchois-chinchard dense " et " Sardine ", respectivement annotées 1, 2, et 3.fr—gment—tion de l9é™hogr—mme X vi 1− @UFUA i VD où vi est le volume du ˜—n™ i et V le volume de l9é™hogr—mme @pour une mêmeo™™up—tion sp—ti—leD l9im—ge peut ™ontenir un gros ˜—n™ de poissons ou plusieurs petits˜—n™sAD et l— profondeur moyenne de l9é™hogr—mmeF ƒept des™ripteurs lo™—uxD iFeF desdes™ripteurs de ˜—n™s de poissonsD sont extr—its X l— profondeurD l— longueurD l— l—rgeurDl— h—uteurD le volumeD l9o™™up—tion sp—ti—le lo™—le @le volume du ˜—n™ divisé p—r levolume de l9é™hogr—mmeAD et l9énergie rétrodiusée @ƒvAF €—rmi les trois ™l—sses testées@4 en™hoisEghin™h—rd peu dense 4D 4 en™hoisEghin™h—rd dense 4D et 4 ƒ—rdine 4AD on s—itque l— s—rdine donner— peu d9erreurs de ™l—ssi(™—tionF gel— se véri(e en rem—rqu—nt queDd—ns l9histogr—mme des sondes moyennes des é™hogr—mmes @(gure UFUAD nous ™onst—tonsque l— distri˜ution des sondes des é™hogr—mmes ™onten—nt des —grég—tions de s—rdinesest l—rgement 陗rtée des distri˜utions des deux —utres ™l—ssesF einsiD ™omme le testst—tistique est positif si —u moins une des ™l—sses se dét—™he des —utresD —lors nousee™tuons le test à l— fois pour l9ensem˜le des ™l—sses @™l—sses {IDPDQ} d—ns l— (gure UFPAet pour les ™l—sses di0™ilement sép—r—˜les @™l—sses {IDP} d—ns l— (gure UFPAF qlo˜—lementD les résult—ts sont positifs visEàEvis de l9—pport d9inform—tions dis™rimiEn—ntes p—r le sondeur multif—is™e—uxF gomme supposéD l9—jout d9une troisième dimenEsion sp—ti—le —ugmente l— (nesse de l— des™ription des —grég—tionsD et p—r ™onséquen™eD
  • 88. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESx™iv STRUCTURESle pouvoir dis™rimin—ntF gel— se véri(e en o˜serv—nt que l— st—tistique F est souventsupérieure d—ns le ™—s des im—ges Qh p—r r—pport —ux im—ges PhD et en not—nt que l—v—leur p est souvent inférieure d—ns le ™—s des im—ges QhF gomme —ttenduD une foisque l— ™l—sse f—™ilement sép—r—˜le des s—rdines est retirée du testD nous ™onst—tons queles pro˜—˜ilités d9erreurs —ugmententF gel— est dû —u f—it que les ™l—sses I et P sontdi0™ilement sép—r—˜lesF €lus pré™isémentD pour le jeu de données hTD les des™ripteurs de ˜—n™s de poissonsles plus dis™rimin—nts sem˜lent être l— profondeur et l— l—rgeur des ˜—n™s de poissons@l— l—rgeur des ˜—n™s de poissons ét—nt fortement ™orrélée à l— profondeurD ™e résult—test justeAD et les des™ripteurs glo˜—ux les plus dis™rimin—nts sont l9o™™up—tion sp—ti—leet l— sonde moyenneF …ne illustr—tion est proposée d—ns l— (gure UFWF €our le sondeurmultif—is™e—ux @im—ge QhAD nous représentons en h—ut à g—u™he de l— (gure UFW l9hisEtogr—mme de l— profondeur des ˜—n™s de poissons qui présente une st—tistique F trèsf—vor—˜le @F = 2300AD et nous représentons en ˜—s à g—u™he de l— (gure UFW l9histoEgr—mme de l9énergie rétrodiusée p—r les ˜—n™s @ƒvA dont l— st—tistique F est moinsf—vor—˜le @F = 28AF gomme —ttenduD pour l9énergie rétrodiusée @ƒvA il y — superpoEsition des distri˜utionsD et pour l— profondeur des ˜—n™s de poissonsD les distri˜utionsne se re™ouvrent p—sF gepend—ntD nous ™onst—tons que l— distri˜ution de l— ™l—sse 4en™hoisEghin™h—rd dense 4 est multiEmod—le ™e qui f—usse le testF w—is si une —n—lyseglo˜—le est ™onsidéréeD ™e des™ripteur est p—rti™ulièrement intéress—nt ™—r il ™onduit àl9idée suiv—nte X si des ˜—n™s de poissons sont présents d—ns les deux modes à l— foisD—lors l9im—ge est ™l—ssée d—ns l— ™—tégorie 4 en™hoisEghin™h—rd dense 4F ge prin™ipejusti(e l9emploi d9un ™lustering qui ™onstitue l— première ét—pe pour o˜tenir le desE™ripteur glo˜—l que nous —vons proposé d—ns l— se™tion UFRF he l— même f—çonD m—is™ette fois pour le sondeur monof—is™e—uD nous tr—çons en h—ut à droite de l— (gureUFW les histogr—mmes de l9o™™up—tion sp—ti—le glo˜—le d—ns les im—ges qui présente unest—tistique F élevée @F = 93AD et nous tr—çons en ˜—s à droite de l— (gure UFW les histoEgr—mmes des dist—n™es médi—nes d—ns les im—ges qui présentent une st—tistique F trèsf—i˜le @F = 0.04AF ves ™on™lusions sont les mêmes que pour le sondeur multif—is™e—uxF gette —n—lyse st—tistique donne une idée génér—le de l— rel—tion entre les ™l—ssesd9espè™es ™onsidérées p—r le jeu de données hT et des des™ripteurs glo˜—ux ou lo™—uxFgel— nous permet —ussi de qu—nti(er l9—pport d9inform—tions des im—ges Qh p—r r—pport—ux im—ges PhF gepend—ntD n9ou˜lions p—s queD en plus des ™onditions né™ess—ireset propres à ™ette —n—lyse st—tistique @—˜sen™e de prise en ™ompte des ™orrél—tionsentre des™ripteurs et monoEmod—lité des distri˜utionsAD nous —vons dû équili˜rer les™l—sses en termes de ™—rdin—lité ™e qui peut produire des ™h—ngements moyens d—ns leshistogr—mmes et qui produit quelques impré™isionsF gette —n—lyse de l— v—ri—n™e est utilisée d—ns l— se™tion suiv—nte pour justi(er lesrésult—tsFApplication à la reconnaissance des ensembles de bancs h—ns un deuxième tempsD nous proposons d9ee™tuer une étude qu—ntit—tive dupouvoir dis™rimin—nt du des™ripteur glo˜—l proposéF gette foisD plutôt que de ™l—sser des˜—n™s de poissonsD nous ™l—ssons des im—ges ™omposées de ˜—n™s de poissonsF ves tests
  • 89. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS x™v Figure 7.9  Pour le sondeur multifaisceaux et le sondeur monofaisceau, his- togrammes de quelques descripteurs dont le test de Fisher est soit très positif, soit très négatif.sont ee™tués —ve™ le jeu de données hT pour les im—ges Ph et QhF gomme pré™édementDune v—lid—tion ™roisée permet de ™—l™uler un t—ux moyen de ˜onne ™l—ssi(™—tionF veprin™ipe d9év—lu—tion des des™ripteurs est le suiv—nt X nous ™onsidérons que le meilleurdes™ripteur est ™elui qui propose le meilleur t—ux de ˜onne ™l—ssi(™—tionF €lusieurs des™ripteurs sont ™omp—rés X IF Sonde moyenne (Sonde). e ™—use de l— géométrie des f—is™e—ux des sondeursD les des™ripteurs sont souvent ™orrélés à l— sonde d9o˜serv—tionF v— diéren™e entre le t—ux de re™onn—iss—n™e o˜tenu —ve™ l— sonde et ™elui o˜tenu à l9—ide d9un des™ripE teur donné est une mesure qui permet d9év—luer l9—pport de pouvoir dis™rimin—nt du des™ripteur ™onsidéréF einsiD de ™h—que im—geD les profondeurs moyennes sont extr—itesD et elles ™onstituent l9unique des™ripteur pour l9—pprentiss—ge du ™l—ssiE (eurF €—r —illeursD l— sonde est un indi™—teur ro˜uste de l9h—˜it—t d9une espè™eF PF Descripteurs globaux proposées par Burgos et Horne ‘PHT“ (Burgos). furgos propose d9—sso™ier plusieurs des™ripteurs st—tistiques à ™h—que im—ge Ph X l— densité des ˜—n™s d—ns l9im—geD le pour™ent—ge d9o™™up—tion sp—ti—leD l9indi™e de fr—gment—tion de l9im—ge @pour une même o™™up—tion sp—ti—leD l9im—ge peut ™ontenir un gros ˜—n™ de poissons ou plusieurs petits ˜—n™sAD les IHeme D SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité de l9—ire des ˜—n™s de poissonsD les IHeme D SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité de l9—ire rel—tive des ˜—n™s de poissons @rel—tivement à l9—ire tot—le des im—gesAD les IHeme D SHeme D et WHeme ™enE tiles de l— densité de pro˜—˜ilité de l— profondeur pondérée des ˜—n™s de poissons @pondérée p—r le r—pport entre l— densité de l9énergie volumique rétrodiusée et l— sondeAD l— dist—n™e médi—ne des ˜—n™s de poissonsD l9énergie rétrodiusée voE lumique moyenneD les IHeme D SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité de l9énergie rétrodiusée volumique des ˜—n™s de poissonsF furgos présente —ussi deux p—r—mètres qui sont liés à l— densité de poissons d—ns un volume élément—ire
  • 90. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESx™vi STRUCTURES ‘PIR“F gepend—ntD pour estimer ™ette densitéD il est né™ess—ire de ™onn—ître l9espè™e du poisson d—ns le ˜—n™F itD ™omme nous ess—yons de prédire l— ™l—sse des ˜—n™s de poissonsD nous supposons que ™ette donnée est in™onnueF ges deux des™ripteurs ne sont don™ p—s utilisésF „ous ™es p—r—mètres sont f—™ilement étendus —ux ™—s d9im—ge QhF ges IU p—r—mètres forment un ve™teur qui est —sso™ié à ™h—que im—ge et qui permet d9—pprendre des ™l—ssi(eursF QF Histogramme des descripteurs (Hist-Descr). gh—que ˜—n™ est p—r—métré p—r un ™ert—in nom˜re de des™ripteurs @se™tions UFQ et UFQFPAF €our ™h—™un des des™ripteursD d—ns ™h—que im—geD un histogr—mme disjoint est ™—l™uléF in ™onsidéE r—nt l9histogr—mme ™omme un ve™teur de p—r—mètres et en ™on™—tén—nt les histoE gr—mmes de ™h—que des™ripteurD nous o˜tenons un ve™teur qui dé™rit ™h—que im—ge et qui permet d9—pprendre un ™l—ssi(eurF RF Histogramme des clusters (Hist-Clust). v9—ppro™he est l— même que pour le des™ripteur pré™édentF h—ns l— se™tion UFRFPD les ˜—n™s sont regroupés p—r ™lusterF h—ns ™h—que im—geD l9histogr—mme des ™lusters est ee™tuéD donn—nt un ve™teur de des™ripteurs —sso™ié à ™h—que im—geF ges ve™teurs permettent d9ee™tuer l9—pE prentiss—ge d9un ™l—ssi(eurF SF K de Ripley (Ripley). ve des™ripteur proposé d—ns l— se™tion UFRFP permet d9o˜tenir une m—tri™e de ™oo™™urren™e —sso™iée à ™h—que im—geF in ™on™—tén—nt les lignes @ou les ™olonnesA de ™es m—tri™esD nous o˜tenons un ve™teur qui permet d9—pprendre un ™l—ssi(eurF furgos ‘PHT“ montre qu9une —n—lyse multiEseuils est plus pertinente qu9une —n—lysequi s9—ppuie sur plusieurs v—leurs de ™ontiguïtés @lors de l— déte™tion des ˜—n™s depoissonsD ™fF se™tions UFQ et UFQFPAF einsiD pour deux v—leurs de seuill—ge distin™tes@™fF se™tion UFQAD les formes des —grég—tions ™h—ngentD deux pixels isolés peuvent être—grégés ensem˜le si le nive—u de seuil ˜—isseF he plusD ™omme l— réponse —™oustique despoissons dière d9une espè™e à l9—utreD ™ert—ine espè™e voit leur énergie rétrodiuséefortement modi(ée d9un nive—u de seuill—ge à l9—utreF get —spe™t produit des élémentsde dis™rimin—tion entre les espè™es de poissonsF ves des™ripteurs proposés sont don™—sso™iés à une —n—lyse multiEseuilsF ve ve™teur de des™ripteurs —sso™ié à une im—ge pourun seuil donné est ™on™—téné —ux ve™teurs de des™ripteurs issus de seuill—ges diérentsFv9—pprentiss—ge et l— ™l—ssi(™—tion sont ee™tués à p—rtir du ve™teur (n—l qui ™ontientles inform—tions de ™h—que seuilF €our ™ette expérien™eD sous ™onseil de l9expertD nous™hoisissons les seuils −60dB et −54dB @l9—n—lyse de sensi˜ilité montre une gr—ndev—ri—˜ilité entre ETHdf et ESRdfAF he l— même f—çonD pour le des™ripteur 4 u de ‚ipley4D plusieurs t—illes de ˜oules sont ™hoisiesD donn—nt plusieurs m—tri™es de ™oo™™urren™esdont les v—leurs sont ™on™—ténées pour ™onstruire le ve™teur des des™ripteursF ve ™hoixde l— t—ille des ˜oules est ee™tué en tr—ç—nt l9histogr—mme des dist—n™es entre lesindividus @(gure UFIHAF heux types de dist—n™es se dég—gent X les dist—n™es très pro™hesinférieures à S mètres et des dist—n™es plus import—ntes inférieures à PH mètresF einsiDnous ™hoisissons deux types de ˜oules X une dont le r—yon v—ut PDS mètresD et l9—utredont le r—yon v—ut IH mètresF ves résult—ts sont —0™hés d—ns le t—˜le—u UFQ pour le sondeur monof—is™e—u et d—nsle t—˜le—u UFR pour le sondeur multif—is™e—uxF ves ™l—ssi(eurs ™hoisis sont les forêts—lé—toiresF h—ns ™e t—˜le—uD le t—ux moyen de ˜onne ™l—ssi(™—tion issu d9une v—lid—tion
  • 91. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS x™vii Figure 7.10  Histogramme des distances entre individus dune même image pour chaque classe.™roisée est représenté en fon™tion du nom˜re d9im—ges utilisées pour —pprendre un ™l—sEsi(eurF sl est prévisi˜le que les perform—n™es de ™l—ssi(™—tion ™roissent —ve™ le nom˜red9im—ges ™onsidérées pour l9—pprentiss—ge @plus il y — d9exemples l—˜élisésD meilleureest l9estim—tion du ™l—ssi(eurAF in ordonnéeD le t—ux moyen de ˜onne ™l—ssi(™—tionest —0™hé pour ™h—™un des des™ripteurs utilisés @€rofD furgosD ristEhes™rD ristEglustD‚ipleyAF Cardinal de lensemble 30 60 90 120 dapprentissage furgos 79,5% 83,8% 85,7% 87,0% ristEglust UVDI7 VIDU7 VRDQ7 VTDH7 ristEhes™r SPDS7 TQDH7 TWDW7 UQDP7 ‚ipley UTDU7 UWDW7 VQDQ7 VRDH7 ƒonde UIDQ7 UPDR7 UPDW7 UIDH7 Tableau 7.3  Pour le sondeur monofaisceau (images 2D), comparaison du pourvoir discriminant des descripteurs globaux. Le taux moyen de bonne clas- sication est représenté en fonction de la taille de lensemble dapprentissage. Les descripteurs résultent dune analyse multi seuils (-60dB et -54dB). gommençons p—r une —n—lyse glo˜—le des résult—tsF €remièrementD les perform—n™esdes méthodes rel—tivement —u ™—rdin—l de l9ensem˜le d9—pprentiss—ge renseignent sur l—ro˜ustesse des méthodesF s™i les perform—n™es —ugmentent —ve™ l— t—ille de l9ensem˜led9—pprentiss—geF v— ™on™lusion logique est queD plus nous disposons d9im—ges —nnotéesDmeilleures sont les t—ux de ™l—ssi(™—tionF heuxièmementD ™omme pour le test st—tistiquede l— se™tion UFRFQD l9—pport d9inform—tions dis™rimin—ntes p—r le sondeur multif—is™e—ux
  • 92. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DESx™viii STRUCTURES Cardinal de lensemble 30 60 90 120 dapprentissage furgos VWDV7 WHDW7 WIDQ7 WIDQ7 ristEglust WIDP7 WPDU7 WQDV7 WQDU7 ristEhes™r UWDT7 VQDU7 VSDP7 VSDS7 ‚ipley 91,4% 93,4% 94,3% 94,4% ƒonde UIDQ7 UPDR7 UPDW7 UIDH7 Tableau 7.4  Pour le sondeur multifaisceaux (images 3D), comparaison du pourvoir discriminant des descripteurs globaux. Le taux moyen de bonne clas- sication est représenté en fonction de la taille de lensemble dapprentissage. Les descripteurs résultent dune analyse multi seuils (-60dB et -54dB).ne f—it —u™un douteF €our ™h—™une des méthodes d9—n—lyse glo˜—leD le g—in moyen deperform—n™e de ™l—ssi(™—tion de l9—n—lyse Ph à l9—n—lyse Qh —ugmente signi(™—tivement@—ll—nt de U7 d9—mélior—tion pour le des™ripteur glo˜—l 4 furgos 4 à PH7 d9—mélior—tionpour le des™ripteur ristEhes™rAF …n troisème point import—nt est l— ™ontri˜ution desdes™ripteurs visEàEvis de l— sondeF fien que les des™ripteurs glo˜—ux soient ™orrélés àl— sonde @plus l— sonde est gr—ndeD plus l— profondeur des ˜—n™s de poissons —ugmenteD™e qui imp—™te à l— fois sur l9histogr—mme des des™ripteurs des ˜—n™s de poissonsD etsur l9histogr—mme des ™lustersAD les des™ripteurs glo˜—ux introduisent d9—utres inforEm—tions dis™rimin—ntes qui ™ontri˜uent à —méliorer l—rgement le t—ux de ™l—ssi(™—tionp—r r—pport à ™elui de l— sonde @PQDR7 d—ns le meilleur des ™—sAF w—inten—nt nous —pportons quelques éléments d9—n—lyse qui expliquent les diéEren™es entre furgos et les des™ripteurs ˜—sés sur les histogr—mmes des ™lusters @ristEglust et ‚ipleyAF in eetD nous ™onst—tons que les des™ripteurs glo˜—ux de furgos sontmeilleurs pour des im—ges issues du sondeur monof—is™e—uD t—ndis que le des™ripteurproposé @‚ipleyA produit les meilleurs résult—ts de ™l—ssi(™—tion d—ns le ™—s d9im—geQhF v9expli™—tion vient du ™ontenu et de l— n—ture des im—ges X les im—ges Qh sontplus denses et ˜e—u™oup plus ri™hes en inform—tions que les im—ges Ph @il su0t de™omp—rer les im—ges des (gures TFP @monof—is™e—uA et TFR @multif—is™e—uxAAF einsiD lesdes™ripteurs de furgos sont plus —d—ptés à des im—ges simples dont l— densité des ˜—n™sde poissons est f—i˜leD en rev—n™he le des™ripteur proposé @‚ipleyA né™essite d—v—nt—ged9inform—tionsD not—mment pour le ™—l™ul des ™oo™™urren™es @plus l9im—ge est ™omplexeDplus les ™oo™™urren™es portent de l9inform—tion dis™rimin—nteAF …ne —utre expli™—tionest donnée à p—rtir de l9—n—lyse des des™ripteursF „out d9—˜ordD notons que le des™ripEteur furgos ™ontient des inform—tions ™ommunes —ve™ les des™ripteurs ˜—sés sur leshistogr—mmes des ™lusters @ristEhes™r et ‚ipleyAF in eetD les inform—tions de densitéDde volumeD d9énergie et de profondeur des ˜—n™s de poissons sont ™ommunes —ux deuxdes™ripteursF ejoutons queD même si le des™ripteur ‚ipley est plus pré™isD l9inform—tionde dist—n™e entre ˜—n™s de poissons est ™ommune —ux deux —ppro™hesF in rev—n™heDseul furgos ™onsidère le pour™ent—ge d9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tionDet seules les méthodes ˜—sées sur les histogr—mmes ™onsidèrent l— longueurD l— l—rgeuret l— h—uteur des ˜—n™s de poissonsF yrD si nous nous référons —u t—˜le—u UFP d—ns lequel
  • 93. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS x™ix(gurent les résult—ts de l9exy†eD nous ™onst—tons que les p—r—mètres morphologiquesdes ˜—n™s de poissons @h—uteurD longueurD l—rgeurA sont ˜e—u™oup plus dis™rimin—ntsque l9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tion d—ns le ™—s Qh pour les ™l—sses{1, 2} @les v—leurs de l— st—tistiques F sont respe™tivement {F = 14, F = 124, F = 74}™ontre {F = 42, F = 30}AF gel— explique que les méthodes ˜—sées sur les histogr—mmessont meilleures que furgos d—ns le ™—s des im—ges Qh @t—˜le—u UFRAD tout simplement™—r les des™ripteurs élément—ires sont plus dis™rimin—ntsF snversementD d—ns le ™—s PhDpour les ™l—sses {1, 2} les st—tistiques F deviennent {F = 10, F = 23, F = 0, 05} pourl— longueurD l— l—rgeurD et l— h—uteur des ˜—n™s de poissons et {F = 93, F = 22} pourl9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tionF gel— justi(e que furgos soit meilleurd—ns le ™—s Ph @t—˜le—u UFQAF e(n d9expliquer les ˜onnes perform—n™es o˜tenues —ve™ l9histogr—mme des ™luster@ristEglustA et les ™oo™™uren™es des ™lusters d—ns les ˜oules @‚ipleyAD pour les im—gesQhD nous tr—çons l9histogr—mme des ™lusters pour ™h—que ™l—sse @(gure UFIIAF ge résulEt—t n9est p—s —˜soluD d—ns le sens où le ™lustering résulte d9une initi—lis—tion —lé—toirede l— position des ™lustersD —insi deux ™lustering diérents peuvent produire des résulEt—ts tot—lement éloignésF gepend—ntD l— (gure UFII montre ˜ien ™omment l9ét—pe de™lustering est détermin—nte et —joute du pouvoir dis™rimin—nt @not—mment p—r r—pEport à l9histogr—mme des des™ripteurs ristEhes™rAF h—ns ™ette (gureD on rem—rqueque les distri˜utions sont rel—tivement ˜ien dét—™hées les unes des —utresD et que les™l—sses sont —sso™iées à plusieurs ™lustersF €—r exempleD pour les im—ges de ƒ—rdineD les™lusters {1, 2, 5, 11, 12, 13} sont m—jorit—irement présentsD t—ndis que pour les en™hoisEghin™h—rd peu denses et les en™hoisEghin™h—rd densesD les ensem˜les de ™lusters m—Ejorit—irement présents sont {17, 18, 19, 20} et{11, 12, 18, 19}F h—ns ™es ensem˜lesD pluEsieurs p—ires de ™lusters peuvent être ™hoisis pour dé(nir une ™l—sse X l— p—ire de ™luster{11, 18} est pro˜—˜lement —sso™iée à l— ™l—sse 4 en™hoisEghin™h—rdD dense 4D l— p—ire{18, 20} est pro˜—˜lement —sso™iée à l— ™l—sse 4 en™hoisEghin™h—rdD peu dense 4D et™omme dernier exempleD l— p—ire {2, 12} est pro˜—˜lement —sso™iée à l— ™l—sse 4 ƒ—rEdine 4F gel— explique que les ™ouples de ™lusterD qui sont l— ˜—se de notre des™ripteurglo˜—l qui s9—ppuie sur les m—tri™es de ™oo™™urren™esD sont déjà lo™—lisés à l9—ide du™lusteringF gepend—ntD l9—n—lyse d9une inform—tion de dist—n™e entre ™es ™ouplesD vi—le u de ‚ipleyD produit une légère —mélior—tion des perform—n™es de ™l—ssi(™—tionFgel— illustre ™omment le ™lustering produit de très ˜onnes perform—n™es et pourquoi l—m—rge d9—mélior—tion des perform—n™es de ™l—ssi(™—tion reste peu import—nte @de HDP7à HDU7A —ve™ le des™ripteur proposé @4 ‚ipley 4AF ixpliquons m—inten—nt pourquoi le ™lustering produit de meilleurs résult—ts quel9histogr—mme des des™ripteurs des ˜—n™s de poissonsF v— question est légitime ™—r ™esdeux des™ripteurs glo˜—ux prennent les mêmes des™ripteurs de ˜—n™s de poissons en enEtréeF v— diéren™e se situe d—ns l— prise en ™ompteD ou nonD du ™—r—™tère 4 dépend—nt 4des des™ripteursF in eetD les histogr—mmes des des™ripteurs sont o˜tenus pour ™h—quedes™ripteur indépend—mment en ™onsidér—nt qu9ils sont disjointsF eu ™ontr—ireD le ™lusEtering permet de prendre en ™ompte toutes les ™orrél—tions possi˜les entre des™ripteursDquelle que soit l— dimension de l9esp—™e des des™ripteursF einsiD ét—nt données les fortes™orrél—tions qui existent entre tous les des™ripteurs ™onsidérés @™fF se™tion UFQD se™tionUFQFPD et ™h—pitre TAD l— prise en ™ompte du ™—r—™tère 4 dépend—nt 4 des des™ripteurs
  • 94. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES™ STRUCTURES Figure 7.11  Pour un clustering donné, histogramme des clusters dans les images pour chaque classe.d9—grég—tions est un plus non néglige—˜leF gette expli™—tion est —ussi v—lide visEàEvis desdes™ripteurs glo˜—ux proposés p—r furgosF €—r exempleD l— prise en ™ompte de ™ert—insqu—ntiles de l9énergie rétrodiusée @ƒvAD n9exprime en rien les diérentes ™orrél—tionspossi˜les entre le ƒv et les —utres des™ripteurs qui peuvent être dis™rimin—ntesF h—ns le t—˜le—u UFSD nous reportons les t—ux moyens de ˜onne ™l—ssi(™—tion pour lesdes™ripteurs furgosD ristEglustD et ‚ipleyD en fon™tion du seuil d9extr—™tion des ˜—n™sde poissons d—ns l9im—geF v— moyenne est ee™tuée sur l— v—lid—tion ™roisée m—is —ussisur l— t—ille de l9ensem˜le d9—pprentiss—geF he m—nière génér—leD l— première ™onst—t—Etion est que les perform—n™es ™hutent —ve™ l9—ugment—tion du seuilF gel— est ™ohérent Xplus le seuil d9extr—™tion —ugmenteD moins il y — de ˜—n™s de poissons d—ns l9im—ge etdon™ d9inform—tions dis™rimin—ntesF heuxièmementD nous o˜servons moins de st—˜ilitéque sur l— ™l—ssi(™—tion multi seuils de l— (gure UFRF in eetD même si l9histogr—mmedes des™ripteurs donne les meilleurs résult—ts pour les seuils ETHdfD ESIdfD et ERVdfD—u™une méthode ne domine vr—iment les —utresF pin—lementD ™es résult—ts tr—duisentl9import—n™e d9une —n—lyse multi seuilsF in eetD l— ™on™—tén—tion des des™ripteursissus d9—n—lyses multi seuils @t—˜le—u UFRA permet d9—méliorer les résult—ts de ™l—ssi(™—EtionF gel— est p—rti™ulièrement vr—i pour le des™ripteur proposé @‚ipleyA pour lequel lemeilleur t—ux de ™l—ssi(™—tion @WHDI7A en —n—lyse mono seuil @t—˜le—u UFSA est —tteintpour le seuil ETHdfD et pour lequel les perform—n™es sont nettement —méliorées @WQDQ7en moyenneD t—˜le—u UFRA en —n—lyse multi seuils @™on™—tén—tion des des™ripteurs desseuils ETHdf et ESRdfAF €our ™on™lureD l9—n—lyse multi seuils est très f—vor—˜le à notredes™ripteurD et permet de g—gner en st—˜ilitéF
  • 95. 7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCSDE POISSONS ™i Seuil -60dB -58dB -54dB -51dB -48dB dextraction furgos VSDT7 90,2% VVDV7 VRDR7 VHDW7 ristEglust 91,7% WHDI7 VVDQ7 85,6% 81,2% ‚ipley WHDI7 VWDQ7 89,0% VQDW7 VHDQ7 Tableau 7.5  Pour le sondeur multifaisceaux (images 3D), comparaison du pouvoir discriminant des descripteurs globaux. Le taux moyen de bonne classi- cation est représenté en fonction du seuil dextraction des bancs de poissons dans les images (-60db, -57dB, -54dB, -51dB, -48dB).7.4.4 Synthèse ves nouvelles te™hnologies d9—™oustique sous m—rineD sym˜olisées p—r le sondeurmultif—is™e—uxD permettent de dé™rire les zones insoni(ées de m—nière ˜e—u™oup pluspré™iseF xot—mmentD l— for™e du sondeur multif—is™e—ux est l9—jout d9une troisièmedimension de l9esp—™e qui révèle des formes ™omplexesD inst—˜les et diversesF h—ns ™ettese™tionD nous —vons ™omp—ré des des™ripteurs glo˜—ux de ™es im—ges qui se ˜—sent surune —n—lyse multi seuilsF v— première ™on™lusion issue de l9exy†e est que les im—gesQh ™ontiennent ˜e—u™oup plus d9inform—tions dis™rimin—ntes que les im—ges PhD ™el—est ™on(rmé p—r les perform—n™es de ™l—ssi(™—tion qui sont l—rgement en f—veur d9une—n—lyse multif—is™e—ux plutôt qu9une —n—lyse monof—is™e—uF v— se™onde ™on™lusion estque le des™ripteur proposéD qui dé™rit l9org—nis—tion sp—ti—le des ˜—n™s de poissonsd—ns l9im—geD permet d9—méliorer les perform—n™es de ™l—ssi(™—tion p—r r—pport à desdes™ripteurs issus de l9ét—t de l9—rtF gette —mélior—tion est ™onst—té pour des im—ges QhDen rev—n™heD le m—nque d9inform—tions des im—ges issues des sondeurs monof—is™e—u nepermet p—s d9—méliorer les perform—n™esF gepend—ntD l9év—lu—tion des méthodes dem—nde à être —pprofondieF €lus p—rti™ulièErementD le prin™ipe selon lequel des des™ripteurs fortement dis™rimin—nts présentent unfort t—ux de ™l—ssi(™—tion pose quelques pro˜lèmesF in eetD les ™l—ssi(eurs sont sujetsà des phénomènes de ˜ruitsF €our résumerD nous —vons ™onst—té p—r simul—tion queDplus nous —joutons de des™ripteursD moins les perform—n™es sont ˜onnesF v9idée ét—itiniti—lement de ™on™—téner les m—tri™es de ™oo™™urren™es pour une gr—nde v—riété deseuils et de t—illes de ˜oulesD m—is nous étions —lors sujets à des pro˜lèmes de ™—p—™itémémoire et de s—tur—tion des ™l—ssi(eursF v9exemple le plus signi(™—tif se trouve d—nsle t—˜le—u UFS X l— ™on™—tén—tion des histogr—mmes des ™lusters @ristEglustA —ve™ lesm—tri™es de ™oo™™urren™es @‚ipleyA produit de moins ˜ons résult—ts que l9emploi deshistogr—mmes seulsF „outefoisD l9—n—lyse multiEseuils permet d9—méliorer les résult—tsFv— ™on™lusion est que le ™l—ssi(eur employé n9est p—s —ssez ro˜usteD l9—jout de des™ripEteur ne doit p—s —ltérer les perform—n™esF h—ns le futurD si ™es des™ripteurs sont utilisésDune —n—lyse des perform—n™es plus (ne devr— être envis—géD soit en utilis—nt un ™l—ssiE(eur plus ro˜usteD soit en ™h—nge—nt l— méthode d9év—lu—tionF €—r exempleD plutôt quede ™on™—téner les ensem˜les de des™ripteurs pour ne former qu9un seul des™ripteurD onpeut im—giner plusieurs ™l—ssi(eurs —sso™iés à ™h—que ™on(gur—tion de seuil ou de t—illede ˜oule @pour les st—tistiques de ™oo™™urren™esAD puis un vote ser—it ee™tué à l9inst—r
  • 96. CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES™ii STRUCTURESdes méthode de 4 ˜oosting 4 et de 4 ˜—gging 4F v9—n—lyse de l9exy†e et des perform—n™es de ™l—ssi(™—tions ont montré que lesdiéren™es de perform—n™es entre les des™ripteurs peuvent venir des —spe™ts méthodoElogiques des des™ripteurs m—is —ussi des inform—tions ™ontenus d—ns les des™ripteursFeinsiD si en Qh notre des™ripteur est plus perform—nt du f—it de l9utilis—tion de des™ripEteurs morphologiques ™omme l— longueur ou l— l—rgeurD —lors ™euxE™i doivent être in™lusd—ns l— méthode de furgosF he mêmeD si en Ph les des™ripteurs proposés p—r furgossont meilleurs que notre des™ripteurD les inform—tions ™omplément—ires ™ontenues d—nsfurgos doivent être in™lues d—ns les histogr—mmesF gel— ™onstitue les futurs tr—v—ux et—pprofondissements de ™ette thém—tiqueF in(nD les perform—n™es de ™l—ssi(™—tion peuvent être —méliorées en ™onsidér—nt une—n—lyse multiErésolutions et multiEfréquentiellesF €—r exempleD l9exy†e montre que™ert—ins des™ripteurs Ph sont plus dis™rimin—nts que ™ert—ins des™ripteurs Qh @™9estle ™—s du volume des ˜—n™s de poissons pour les ™l—sses {1, 2} pour lequel les st—tisEtiques F v—lent F = 0, 5 et F = 12 respe™tivement pour l— Qh et l— PhAF in ré—litéD™omme l9é™h—ntillonn—ge du sondeur multif—is™e—ux est plus pré™is que ™elui du sonEdeur monof—is™e—uD l9inform—tion Ph peut être retrouvé d—ns les im—ges QhD le toutest ™omprendre quelle inform—tion doit être sous é™h—ntillonnéeF €—r exempleD l9extr—™Etion Ph des ˜—n™s de poissons peut donner une multitude de ˜—n™sD là où le sondeurmultif—is™e—ux n9en verr—it qu9un @l9inform—tion de volume des ˜—n™s et de fr—gment—Etion est —lors ™omplètement diérente pour les im—ges PhAF he mêmeD m—lgré l9—˜sen™ed9—n—lyse multiEfréquentielleD il est ˜ien ét—˜li qu9une —n—lyse multiEfréquentielle @PhApermet de dis™riminer plus f—™ilement les espè™es ‘IPT“F pin—lementD l— ™om˜in—isonde tous les —spe™ts multiErésolutionsD multiEfréquentiellesD multiEseuilsD lo™—ux et gloE˜—uxD ™onstitue l9enjeu m—jeur qui permettr—it d9o˜tenir une des™ription optim—le des—grég—tionsF7.5 Conclusion v— des™ription des ˜—n™s de poissons est un sujet v—steD qui né™essite de l9—ttenEtion et de l— retenueF €lusieurs —ppro™hes peuvent être ™onsidérées X une des™riptionlo™—le de l9—grég—tion @p—r—mètres morphologiquesD p—r—mètres énergétiquesD et™AD ouplusieurs é™helles glo˜—les @à l9é™helle d9une portion d9é™hogr—mmeD ou à l9é™helle d9unerégion géogr—phiqueD et™AF „outes les inform—tions possi˜les et disponi˜les ™onstituentun des™ripteur potentiellement intéress—nt et dis™rimin—nt pour le ˜—n™ de poissonsD levoxel d—ns l9im—geD ou l9im—ge elleEmêmeF h—ns ™e ™ontexteD d—ns ™e ™h—pitreD nous —vons montré ™omment peuvent se mêlerles des™ripteurs lo™—ux et les des™ripteurs glo˜—uxF in utilis—nt des des™ripteurs usuelsde ˜—n™s de poissons et des des™ripteurs usuels glo˜—ux —uxquels nous —vons —jouténos propres propositions de des™ripteursD nous —vons montré ™omment peuvent êtredé™rites des im—ges qui ™ontiennent des —grég—tions de l— même espè™eD m—is dont lesformes sont diérentesF ges des™ripteurs glo˜—ux peuvent être envis—gés pour l— ™l—ssi(™—tion des ˜—n™sde poissonsF in plus des des™ripteurs lo™—ux des ˜—n™s de poissonsD sont —joutées des
  • 97. 7.5. CONCLUSION ™iii™ompos—ntes des™riptives de l9environnement des ˜—n™s de poissonsF ge pro™édé estutilisé d—ns le ™h—pitre suiv—ntD d—ns lequel nous ee™tuons une ™l—ssi(™—tion de ˜—n™sde poissonsD à p—rtir de des™ripteurs à l— fois lo™—ux et glo˜—uxF
  • 98. CHAPITRE 8 Application à lévaluation des biomasses des espèces halieutiques dans le Golfe de Gascogne8.1 Introduction h—ns les ™h—pitres pré™édentsD des méthodes —utom—tiques ont été suggérées pour—pprendre des modèles de ™l—ssi(™—tion d9o˜jets dont le l—˜el est impré™is @™fF p—rtie sdu présent m—nus™ritAF insuiteD —près —voir présenté les des™ripteurs usuels des —grég—Etions de poissonsD et le nouve—u sondeur multif—is™e—uxD de nouve—ux des™ripteurs ontété proposés @™h—pitre T et ™h—pitre UAF gomme l9—n—lyse première du ™omportement desmodèles de ™l—ssi(™—tionD ou des des™ripteurs d9im—gesD requiert des —ppro™hes simpleset élément—iresD toutes ™es méthodes sourent d9un m—nque de v—lid—tionF xot—mmentD™el— est dû —u f—it que des s™én—rios ont été générés pour év—luer les perform—n™esglo˜—les des méthodes de ™l—ssi(™—tion et leurs réponses rel—tivement —ux ™omplexitésdes ensem˜les d9—pprentiss—ge @™fF ™h—pitre SAF sl — —ussi f—llu tester les nouve—ux desE™ripteurs sur un jeu de données p—rtielles qui n9est p—s représent—tif de l9étendu deso˜serv—tions possi˜les en —™oustique h—lieutiqueD m—is dont l— ™on(gur—tion permetm—lgré tout d9entériner l— ™ontri˜utionF sl est don™ légitime de se dem—nder si toutes™es méthodes fon™tionnent sur des ™—s pr—tiquesD réelsD et exh—ustifsF in guise d9—ppli™—tionD d—ns ™e ™h—pitreD nous proposons une étude expériment—lequi v—lide à l— fois l9utilis—tion des méthodes d9—pprentiss—ge et ™elle des des™ripteursdes —grég—tionsF ves outils développés sont —insi —ppliqués à l9év—lu—tion de l— ˜iom—ssedes espè™es h—lieutiques d—ns le qolfe de q—s™ogne qui est pr—tiquée de m—nière exEperteF gette —ppli™—tion permet de juger les perform—n™es de ™l—ssi(™—tion des ˜—n™sde poissons rel—tivement —ux méthodes de ™l—ssi(™—tion employées et —ux des™ripteursutilisésF v9idée génér—le est queD si les ˜—n™s de poissons sont ™onven—˜lement ™l—ssésD—lors l— ˜iom—sse déterminée doit être l— même que ™elle estimée p—r l9expertF h—ns un premier tempsD nous exposons l— méthode de l9expert et le fon™tionneEment d9une ™—mp—gne de pê™he —™oustique @se™tion VFPAF h—ns un se™ond tempsD lesméthodes —utom—tiques d9év—lu—tion de ˜iom—sse sont présentées @se™tion VFQAF €uisDd—ns un troisième tempsD nous présentons l— méthode pour —ppliquer les —lgorithmes
  • 99. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™vi ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNEde ™l—ssi(™—tion de ˜—n™s de poissons à l9év—lu—tion de ˜iom—sse @se™tion VFRAF in(nDune —n—lyse des perform—n™es d9estim—tion de ˜iom—sse est ee™tuée d—ns l— se™tionVFSF8.2 Méthode de lexpert pour lévaluation de bio- masses ve qolfe de q—s™ogneD ™omme d9—utres régions du mondeD est soumis à l— surexploiEt—tion de ses ressour™es h—lieutiquesF v— forte pression médi—tique qui en dé™ouleD vientDpour une p—rtie de l— popul—tionD de l— peur de voir disp—r—ître de leurs —ssiettes desmets de ™hoixD pour les pê™heursD de voir leur métier disp—r—itreD pour les é™ologistesDde l— ™r—inte de voir disp—r—ître à tout j—m—is une espè™e de l— surf—™e du glo˜eD etpour les politiquesD de devoir proposer des solutions qui ™onviennent à l9ensem˜le desp—rtiesF h—ns ™e ™ontexteD des ™—mp—gnes —nnuelles d9év—lu—tion des sto™ks des espè™esh—lieutiques ont vu le jourF illes permettent de rendre ™ompte de l9ét—t des ressour™eset de suivre —insi l9évolution et les tend—n™es des qu—ntités o˜servées ™h—que —nnéeF v9évolution fond—ment—le qui suit le développement des outils d9o˜serv—tions —™ousEtiquesD est l9estim—tion des sto™ks d9espè™esF v— première ét—pe ™onsiste à ™l—sser les—grég—tions o˜servées p—r ™—tégorie qui représentent des ™l—sses d9espè™es ‘IWP“F h—nsle ™—s de mél—nges d9espè™esD l— proportion de ˜iom—sse des espè™es qui est o˜tenuep—r ™h—lut—geD est r—menée —u nive—u de l9im—ge pour dé(nir l— proportion d9énergie—™oustique p—r espè™e ‘PIS“F €our —méliorer l— ™l—ssi(™—tion d—ns le ™—s des mél—ngesd9espè™esD ™ert—ins des™ripteurs glo˜—ux ont été développés ‘PIT“F ve livre de ƒimmondset w—™venn—n ‘IPT“ f—it o0™e de référen™e qu—nt à l— méthodologie d9év—lu—tion dessto™ks des espè™es h—lieutiquesF v— méthode utilisée p—r l9sfremer ‘PIU“ s9en inspire l—rEgementF e(n de ™onn—ître les —spe™ts essentiels de l— pro™édure d9év—lu—tion et pourmieux —n—lyser le ™omportement des méthodes —utom—tiquesD l— méthode experte estprésentée d—ns ™ette se™tionF ƒoit une région du glo˜e d—ns l—quelle nous souh—itons ee™tuer une év—lu—tion dusto™k de ™ert—ines espè™es de poissons @(gure VFIAF †oi™i les ét—pes essentielles de l—méthode d9év—lu—tion de l— ˜iom—sse X IF v— première ét—pe est l— ™—mp—gne d9—™quisition des données de pê™he et des données —™oustiquesF gh—que —nnéeD un n—vire o™é—nogr—phique ee™tue le même p—r™ours tel que représenté d—ns l— p—rtie g—u™he de l— (gure VFIF v9év—lu—tion de sto™k est ee™tuée sur ™ette ™—mp—gne de RS joursF hes ™h—lut—ges sont ee™tués à ™h—que nouvelle déte™tionF ƒi l— même déte™tion ™ontinue —près l— pê™heD il n9y — p—s de nouve—u ™h—lut—geD s—uf si l— déte™tion ™h—ngeF eprès tout ™h—ngement de tr—nsvers—le @™fF p—rtie g—u™he de l— VFIAD pour toute déte™tionD même si ™ette déte™tion est ™onnue et prolonge une o˜serv—tionD un ™h—lut—ge est ee™tuéF in prospe™tion @période d9—™quisition et d9—n—lyse de l— donnée —™oustiqueAD le ˜—te—u se dépl—™e à IH noeudsD et —u moment des ™h—lut—gesD le ˜—te—u se dépl—™e à R noeuds @™fF l— p—rtie droite de l— (gure VFIAF ves ˜—n™s ne sont don™ p—s les mêmes en prospe™tion et en période de pê™heF ge™i est dû —ux pertur˜—tions —pportées
  • 100. 8.2. MÉTHODE DE LEXPERT POUR LÉVALUATION DE BIOMASSES ™vii Figure 8.1  An destimer la biomasse des espèces halieutiques dans le Golfe de Gascogne, le navire océanographique acquière de la donnée acoustique et eectue des chalutages suivant un protocole précis. p—r le ™h—lut et à l— vitesse du ˜—te—u réduite @le ˜—te—u reste plus longtemps —u dessus du ˜—n™ de poissons qui plongeAF gomme les —grég—tions sont ™l—ssées en période de prospe™tionD les inform—tions de ™h—lut—ge sont r—menées à l— zone de prospe™tion ™orrespond—nteF in pr—tiqueD une fois que l— dé™ision de pê™her est priseD le ˜—te—u f—it demiEtour ™omme illustré d—ns l— p—rtie droite de l— (gure VFID et le ™h—lut—ge est ee™tué d—ns l— zone de prospe™tion viséeF eprès le ™h—lut—geD un dernier demiEtour permet de reprendre l— tr—nsvers—le à l9endroit où elle — été quittéeF PF v— se™onde ét—pe est l— ™l—ssi(™—tion des é™hos p—r ™l—sses d9espè™esF ves ˜—n™s extr—its p—r le logi™iel movies @™h—pitre TA sont ™l—ssés p—r ™l—sses qui dé(nissent des espè™es de poissons ou des groupements d9espè™es de poissonsF €—r exempleD d—ns l— p—rtie g—u™he de l— (gure VFPD l— ™—tégorie hI de ˜—n™s dius regroupe le ghin™h—rd et le w—quere—u ™ollés —u fondD hP r—ssem˜le les ˜—n™s souvent denses de ƒ—rdineD d9en™hois ou de ƒpr—t qui sont d—ns le milieu de l— ™olonne d9e—u ou ™ollés —u fondD hQ est ™onstitué de ˜—n™s de werl—n fleu —u ˜ord du pl—te—u ™ontinent—lD et hR réunit les ˜—n™s surf—™iques d9en™hois et de ƒ—rdineF ges groupes sont sus™epti˜les de ™h—nger d9une ™—mp—gne à l9—utreD —u gré des situ—tions nouvelles et indé™isesF h9—utres peuvent être ™réésF QF v— troisième ét—pe est l— str—ti(™—tion de l— zone de prospe™tion @p—rtie droite de l— (gure VFPAF gel— ™onsiste à s™inder ™ette zone en str—tes à l— fois homogènes en t—ille de poissons p—r espè™e et en proportion d9espè™esF in pr—tiqueD les experts dé(nissent les str—tes homogènes de m—nière empiriqueD l9une des ™ontr—intes ét—nt qu9une str—te soit ™omposée d9—u moins deux ™h—lut—gesF …n ve™teur de t—illes de poissons et un ve™teur de proportions d9espè™es sont —sso™iés à ™h—que str—te en moyenn—nt les données de ™h—lut—ge de l— str—te ™onsidérée ‘IPT“ ‘PIU“F v— signi(™—tion ˜iologique est l— notion d9h—˜it—t homogène X l9en™hois se situe plutôt
  • 101. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™viii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE Figure 8.2  Dans le processus destimation de la biomasse des espèces ha- lieutiques, les bancs de poissons observés sont classés par catégories, et la zone de prospection est divisée en strates homogènes. en f—™e de l— qirondeD t—ndis que le werl—n fleu se trouve sur le ˜ord du pl—te—u ™ontinent—lF gh—que iƒh… 1 d9une str—te est —sso™ié —u ve™teur moyen de t—illes de poissons d—ns l— str—te et —u ve™teur moyen de proportions d9espè™esF xotons queD d—ns une str—teD il peut y —voir plusieurs ™h—lut—ges moyens qui ™orE respondent à des ™h—lut—ges p—rti™uliersD ™omme p—r exemple les ™h—lut—ges de surE f—™eF einsiD tous les ˜—n™s d9un iƒh… ne sont p—s for™ément —sso™iés —ux mêmes ™—r—™téristiques de t—illes de poissons et de proportion d9espè™esF €—r exempleD pour les ™h—lut—ges surf—™iquesD seuls les ˜—n™s —sso™iés à l— ™—tégorie hR sont ™on™erE nésF he mêmeD si —u moment du ™h—lut—geD le ™h—lut est positionné —u milieu de l— ™olonne d9e—uD seuls les ˜—n™s de l— ™—tégorie hP sont —sso™iés à ™e ™h—lut—geF gette note justi(e l— se™onde ét—peF RF v— qu—trième ét—pe estD pour ™h—que iƒh…D l— ™onversion de l9énergie —™oustique p—r espè™e en ˜iom—sse p—r espè™eF gonn—iss—nt l9énergie tot—le —™oustique rétrodifE fusée p—r un groupe de ˜—n™s de poissonsD et ™onn—iss—nt l— proportion rel—tive de ˜iom—sse p—r espè™eD nous en déduisons l— ˜iom—sse tot—le p—r espè™e d—ns l9iƒh… ™onsidéré ‘PIU“F it—nt donnée l9énergie tot—le rétrodiusée d—ns une im—ge @Etot A et une ™onst—nte liée —u sondeur @C AD l9expression de l— ˜iom—sse de l9espè™e i d—ns l9im—ge ™onsidérée @BMi A s9exprime de l— m—nière suiv—nte X ωi BMi = C I Etot @VFIA ωj σj j=1 1 Un ESDU correspond à une portion élémentaire du parcours de prospection. En anglais, ESDUsignie " echo sampling distance unit ". En pratique, un ESDU correspond à un échogramme, i.e. uneimage, sur 1 mille marin (1 mille = 1852 mètres).
  • 102. 8.3. MÉTHODES ALGORITHMIQUES DÉVALUATION DE BIOMASSES ™ix où ωi est l— ieme ™ompos—nte du ve™teur moyen de proportions d9espè™es —sso™iée à l9im—geD et σi est l9indi™e de ré)exion moyen de l9espè™e i ‘PIV“F v9indi™e de ré)exion σi tr—duit l— réponse de ™h—que espè™e rel—tivement à l9énergie —™oustiqueF ƒon expression dépend de l— t—ille moyenne des poissons de l9espè™e i @Li A et de p—r—mètres propres à ™h—que espè™e {ai , bi } X σi = 10(ai +bi log(Li ))/10 @VFPA8.3 Méthodes algorithmiques dévaluation de bio- masses v9—utom—tis—tion du pro™essus d9év—lu—tion des sto™ks d9espè™es se fonde sur lemême prin™ipe que l— méthode de l9expert X l9estim—tion de l— ˜iom—sse des espè™esd—ns ™h—que im—ge élément—ire @iƒh…AF fien que les perform—n™es de ™es méthodes—ient été prouvéesD elles sont très peu —ppliquéesF veur dépend—n™e à ™ert—ins p—r—Emètres et les d—ngers de prop—g—tion d9erreurs font que l— présen™e des experts resteindispens—˜leF v9—utom—tis—tion du pro™essus est don™ envis—ge—˜le pour ™orro˜orerl9—n—lyse de l9expert ‘IPT“F €etitg—s et —llF ‘PIW“ ont ™omp—rés plusieurs méthodes —utom—tiquesF gh—™une d9ellerepose sur l— notion de dist—n™e entre im—geD l9idée génér—le ét—nt d9—sso™ier le mêmeve™teur de proportion d9espè™es et le même ve™teur de t—ille de poissons à des im—gesqui sont simil—iresF …ne méthode ™onsiste simplement à —sso™ier les im—ges —ux p—r—Emètres du ™h—lut—ge le plus pro™heF …ne —utre méthode @esgeƒeA r—ssem˜le les im—geséquiv—lentes p—r groupe d9im—ges sem˜l—˜lesF gh—que im—ge d9un groupe ét—nt —sso™iéeà un ™h—lut—ge @le ™h—lut—ge le plus pro™heAD un ™h—lut—ge moyen fédère l9ensem˜le dugroupe d9im—gesF v— méthode „rg est l— version ™ontr—ire d9esgeƒeD d—ns le sensoù plutôt que de ™ommen™er p—r regrouper les im—ges entre ellesD les ™h—lut—ges sontr—ssem˜lés en groupes de ™h—lut—ges équiv—lentsD puis ™h—que im—ge est —sso™iée à l9undes groupes de ™h—lut—gesF ves p—r—mètres import—nts de ™es méthodes —utom—tiques sont le nom˜re de ™—Etégories de ™h—lut—ges ou le nom˜re de ™—tégories d9im—gesD et l— f—çon de ™réer lesregroupementsF in eetD il est né™ess—ire de dé(nir un ensem˜le de des™ripteurs —sEso™iés —ux im—gesD de déterminer une fon™tion de dist—n™eD et en(n une méthode de™l—ssi(™—tion non supervisée est ee™tuéeF €our esgeƒe et „rg ‘PIW“D les p—r—mètresdes im—ges sont les p—r—mètres moyens des ˜—n™s de poissons des im—gesD puis une ™l—sEsi(™—tion hiér—r™hique non supervisée est utilisée pour ee™tuer le 4 ™lustering 4F h—nsd9—utres tr—v—ux ‘PPH“D les p—r—mètres des im—ges sont les histogr—mmes des p—r—mètresdes ˜—n™s d—ns les im—gesD et les dist—n™es sont dé(nies p—r l— divergen™e de fh—tt—™h—Eryy— ‘TR“F gepend—ntD ™ette méthode se distingue des —utres ™—r le regroupement desdonnées s9ee™tue p—r une —ppro™he v—ri—tionnelleF ve point ™ommun de ™es méthodesest l— prop—g—tion d9une inform—tion de ™h—lut—ge @un ve™teur de proportions de ˜ioEm—sse d9espè™es et un ve™teur de t—illes de poissonsA d—ns les im—gesD puis le ™—l™ul del— ˜iom—sse se f—it ™omme pour l9équ—tion @VFPAF €eu de tests et de ™omp—r—isons ont été ee™tuésF yn peut se dem—nderD p—r exempleD
  • 103. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™x ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNEquels sont les des™ripteurs les plus pertinents X ™ert—ins qu—ntiles des histogr—mmesdes des™ripteurs des ˜—n™s de poissons @™omme le f—it furgos ‘PHT“AD les histogr—mmes™omplets des des™ripteurs des ˜—n™s de poissons @™omme nous le f—isons d—ns le ™h—pitreUAD des p—r—mètres glo˜—ux des™riptifs de l9im—ge @™omme le pour™ent—ge d9o™™up—tionsp—ti—le d—ns l9im—geD et™AD ou l— ™om˜in—ison de tous ™es p—r—mètres c yn peut —ussi sedem—nder quelle est l— meilleure méthode de regroupement des données X l— méthode deskEmoyennesD une ™l—ssi(™—tion hiér—r™hiqueD les gr—phes de simil—ritéD ou —lors v—utEilmieux ™onsidérer une —ppro™he v—ri—tionnelle c8.4 Classication de bancs de poissons pour lévalua- tion de biomasses8.4.1 Comment évaluer la biommasse e(n d9entériner sur un ™—s pr—tique les —lgorithmes d9—pprentiss—ge f—i˜lement suEpervisé proposés d—ns l— p—rtie s et les des™ripteurs glo˜—ux proposés d—ns le ™h—pitreUD nous proposons une méthode d9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiquesd—ns le qolfe de q—s™ogneF he m—nière génér—leD l9—n—lyse fon™tionne de l— m—nièresuiv—nte X notre méthode permet de ™l—sser des ˜—n™s de poissonsD et don™D une foisles ˜—n™s ™l—ssésD les ˜iom—sses p—r espè™e peuvent être estimées d—ns ™h—que im—geFhe làD les résult—ts de ˜iom—sse peuvent être ™omp—rés —ve™ ™eux de l9expert ou desméthodes —utom—tiquesD donn—nt une indi™—tion des perform—n™es de ™l—ssi(™—tionF heplusD les des™ripteurs pour l— ™l—ssi(™—tion de ˜—n™s de poissons sontD soit des des™ripEteurs lo™—ux @se™tion UFQ du ™h—pitre UAD soit des des™ripteurs glo˜—ux @se™tion UFR du™h—pitre UAD soit des ™om˜in—isons de des™ripteurs lo™—ux et glo˜—uxF gel— permet dev—lider l9emploi des des™ripteurs glo˜—ux présentés d—ns le ™h—pitre UF ƒoit une ™—mp—gne de pê™he et d9o˜serv—tion —™oustique telle que présentée d—nsl— se™tion VFPF v— zone de prospe™tion est divisée en im—ges élément—ires @ou iƒh… Xim—ges élément—ires de I mille m—rinA qui ™ontiennent ™h—™une des ˜—n™s de poissonsFv9ensem˜le d9—pprentiss—ge est ™onstitué en —sso™i—nt une im—ge à un ™h—lut—ge @p—rexemple le ™h—lut—ge le plus pro™heD ou —lorsD un ™h—lut—ge moyen peut être ™onsiEdéré ™omme pour l— méthode esgeƒe de l— se™tion VFQAF …ne im—ge d9—pprentiss—geest don™ l—˜élisée à l9—ide d9un ve™teur de pro˜—˜ilités — priori des ™l—sses qui ™orErespondent —ux proportions de ˜iom—sse p—r espè™e d—ns l9im—geF „ous les ˜—n™s depoissons d9une im—ge d9—pprentiss—ge sont —sso™iés à ™e ve™teur de pro˜—˜ilités — prioride telle sorte que l9ensem˜le d9—pprentiss—ge (n—l se note {xn , πn }D où xn est un ˜—n™de poissons et πn le ve™teur des pro˜—˜ilités — priori ™orrespond—ntF ge form—lismenous permet d9—ppliquer les méthodes d9—pprentiss—ge f—i˜lement supervisé de l— p—rEtie sF v9o˜serv—tion xn ™omprend soit des des™ripteurs lo™—uxD soit des des™ripteursglo˜—uxD ou les deuxF …ne fois que le modèle de ™l—ssi(™—tion est —pprisD tous les ˜—n™sde poissons sont ™l—ssésF insuiteD pour ™h—que ˜—n™ de poissonsD —y—nt déterminé leur™l—sseD l9énergie —™oustique est ™onvertie en ˜iom—sseF pin—lementD d—ns une im—geD l—somme des ˜iom—sses ™—l™ulée pour ™h—que ˜—n™ de poissons donne l— ˜iom—sse tot—lep—r espè™eF
  • 104. 8.4. CLASSIFICATION DE BANCS DE POISSONS POUR LÉVALUATION DEBIOMASSES ™xi v— méthode de ™onversion de l9énergie —™oustique d9un ˜—n™ de poissons en ˜iom—sseest l— suiv—nte ‘IPT“F gette méthode permet de donner le poids @en kilogr—mmeA d9un˜—n™ de poissons de longueur LD de surf—™e S @d—ns le ™—s d9im—ges ˜idimensionnellesADd9énergie rétrodiusée de volume Sv et dont l— longueur des poissons lp est ™onnueFves p—r—mètres LD S et Sv sont o˜tenus à l9—ide de l9extr—™tion des ˜—n™s de poissonsp—r le logi™iel movies et le p—r—mètre lp est déterminé p—r é™h—ntillonn—ge des individuspê™hésF v— ˜iom—sse BMi en kilogr—mme de l9espè™e i s9exprime en fon™tion du nom˜rede poissons d—ns le ˜—n™ @N AD et du poids d9un poisson pi ™omme suit X ¯ BMi = N.¯i /1000 p @VFQAve nom˜re de poissons s9exprime en fon™tion de l— densité ρ @en nom˜re de poissonsp—r m3 A et du volume du ˜—n™ @V A X N = ρ.V F in ™onsidér—nt le volume d9un ˜—n™ellipsoïd—leD —lors X 2 V = S.L @VFRA 3F he plusD l— densité ρ s9exprime en fon™tion de l9énergie rétrodiusée Sv et de l9indexde ré)exion T Si = ai + bi .log(lp ) de l— m—nière suiv—nte X Sv −T Si ρ = 10 10 @VFSAoù ai et bi sont des p—r—mètres propre à ™h—que espè™eF in(nD l— rel—tion entre le poidspi d9un poisson et l— longueur lp d9un poisson ét—nt donnée p—r pi = ci .lpi D où ci et di¯ ¯ dsont des p—r—mètres propres à ™h—que espè™eD —lors l9expression (n—le de l— ˜iom—sseest X 2 Sv −T Si d BMi = .S.L.ci .lpi .10 10 /1000 @VFTA 3 heux —ppro™hes sont —˜ordées pour le ™—l™ul de l— ˜iom—sse (n—le BM end ={BMiend } d9un ˜—n™ de poissons X une —ppro™he 4 dure 4 et une —ppro™he 4 souple4F ƒoit le ve™teur BM = {BMi } qui ™ontient les poids du ˜—n™ ™onsidéré pour toutesles ™l—ssesF v9—ppro™he 4 dure 4 revient à ™onsidérer que le ˜—n™ de poissons n9est ™onstiEtué que d9une seule espè™eF ƒi Θ est le ™l—ssi(eur et p(y = i|x, Θ) est l— pro˜—˜ilité —posteriori de ™l—ssi(™—tion d—ns l— ™l—sse i du ˜—n™ de poissons xD —lors l— ˜iom—sse(n—le du ˜—n™ est un ve™teur dont les ™ompos—ntes v—lent X BMiend = BMi si i = arg maxj p(y = j|x, Θ) @VFUA BMiend = 0 sinonh—ns le ™—s de l9—ppro™he soupleD les ™ompos—ntes du ve™teur (n—l BM end de ˜iom—ssesont X BMiend = p(y = i|x, Θ).BMi @VFVAin f—is—nt ™el—D ™omme d—ns le p—pier de r—mmond ‘PPI“D nous ™onsidérons qu9un ˜—n™de poissons est ™omposé de plusieurs espè™esF h9un point de vue m—thém—tiqueD ™el—permet de diminuer les erreurs d9—ttri˜ution de ˜iom—sseF
  • 105. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE8.4.2 Un critère doptimisation des paramètres des classieurs in ™omplément de l— p—rtie sD d—ns l—quelle nous ™onsidérons un ensem˜le de donEnées dont les — priori sont ™onnus pour ™h—que ™l—sseD une nouvelle inform—tion estdisponi˜le X l— proportion de ˜iom—sse d—ns les im—gesF h—ns ™ette se™tionD nous propoEsons une méthode d9optimis—tion des p—r—mètres des ™l—ssi(eursD d—ns le ™—s d9im—gespour lesquelles les proportions des ™l—sses sont ™onnuesF it—nt donnés les p—r—mètres ˆΘ d9un ™l—ssi(eurD l— méthode ™onsiste à trouver un jeu de p—r—mètres optimisés Θ quis—tisfont un ™ert—in ™ritèreF xous p—rtons du postul—t que si les p—r—mètres Θ d9un modèle de ™l—ssi(™—tionidé—l @qui ™l—sse p—rf—itement les donnéesA sont optim—uxD et si les o˜jets des im—gesd9—pprentiss—ge sont ™l—ssés à l9—ide de ™e modèleD —lors l— proportion des ™l—sses estiméed—ns les im—ges d9—pprentiss—geD notée πk (Θ) où k indi™e l9im—geD doit être identique à ˆl— proportion réelle des ™l—sses d—ns les im—ges d9—pprentiss—geF einsiD nous o˜tenons ˆπk (Θ) = πk F ve ™ritère ™onsiste don™ à trouver le jeu de p—r—mètres Θ qui minimise uneˆdist—n™e entre les proportions réelles πk et les proportions estimées πk (Θ)F ge ™ritère ˆpeut s9é™rire X ˆ Θ = arg min D(ˆk (Θ), πk ) π @VFWA Θ koù D(•, •) est l— dist—n™e ™onsidéréeF €—rmi les dist—n™es possi˜lesD on peut ™iter l—dist—n™e de fh—tt—™h—ryy— ‘TR“ ‘PPP“ X 1 D(ˆk (Θ), πk ) = 1 − π πki (Θ) · πki ˆ @VFIHA I iD l— dist—n™e de uull˜—™kEvei˜ler ‘PPQ“ ‘TS“ ‘PPR“ X 1 πki D(ˆk (Θ), πk ) = π πki log @VFIIA I i πki (Θ) ˆD et l— dist—n™e eu™lidienne X D(ˆk (Θ), πk ) = π |πki − πki (Θ)|2 ˆ @VFIPA i…ne des™ente de gr—dient permet de résoudre le ™ritère @VFWAF in se r—men—nt à un kpro˜lèmes élément—iresD l9expression du gr—dient de l— fon™tion à minimiser s9exprimepour l— dist—n™e de f—tt—™h—ryy— p—r X ∂ 1 πki = @VFIQA ∂ πki (Θ) ˆ 2 πki (Θ) ˆD pour l— dist—n™e de uull˜—™kEvei˜ler p—r X ∂ −πki = @VFIRA ∂ πki (Θ) ˆ πki (Θ) ˆ
  • 106. 8.5. PERFORMANCES ™xiiiD et pour l— dist—n™e de eu™lidienne p—r X ∂ πki (Θ) − πki ˆ = @VFISA ∂ πki (Θ) ˆ 2 |πkj − πkj (Θ)| ˆ j ve prin™ip—l in™onvénient de ™ette méthode est intrinsèque à l— méthode du gr—dientFin eetD une des™ente de gr—dient permet de trouver un minimum lo™—l d9une fon™tionqui est pro™he du point d9initi—lis—tionF h—ns ™e ™h—pitreD l9optimis—tion est —ppliquée—u modèle dis™rimin—nt qui se prête —isément à l— méthode ™ontr—irement —ux modèles˜—sés sur les —r˜res de ™l—ssi(™—tion dont l— qu—ntité de p—r—mètres @le nom˜re denoeuds d—ns les —r˜res et les v—leurs de ™oupures —sso™iées à ™h—que noeudA est unev—ri—˜le —lé—toireF ves p—r—mètres du modèle sont don™ Θ = {ωi , bi }D l9ensem˜le des™oe0™ients des hyperpl—ns qui sép—rent l— ™l—sse i des —utres ™l—ssesF8.5 Performances8.5.1 Simulation dun scénario €our déterminer ™omment se ™omportent les modèles de ™l—ssi(™—tion développésd—ns l— p—rtie s visEàEvis de données issues de l9—™oustique h—lieutiqueD nous ee™tuonsune simul—tion de s™én—rio ™omme d—ns l— p—rtie sF einsiD le jeu de données hS @p—gex™A est utilisé pour générer des ensem˜les d9—pprentiss—ge f—i˜lement supervisésF v— première expérien™e ™on™erne les p—r—mètres des modèles de ™l—ssi(™—tionF vesrésult—ts de simul—tions sont reportés d—ns l9—nnexe PF ves ™on™lusions sont les mêmesque d—ns l— p—rtie s @p—ge lviiAF v— se™onde expérien™e ™on™erne l— ro˜ustesse des ™l—ssi(eurs rel—tivement —u nive—ude ˜ruit des pro˜—˜ilités — priori des exemples d9—pprentiss—ge @™omme d—ns l— se™tionSFRFP du ™h—pitre SAF €our ™el—D R nive—ux de ™omplexité des données d9—pprentiss—gesont ™réésD —ll—nt de l9—pprentiss—ge superviséD —u ™—s équipro˜—˜leD en p—ss—nt p—r desnive—ux intermédi—iresF ves proportions ™i˜les qui permettent de générer ™es ensem˜lesd9—pprentiss—ge sont données d—ns l9—nnexe PF ves résult—ts de simul—tions sont donEnés d—ns le t—˜le—u VFIF ves ™on™lusions sont sem˜l—˜les à ™elles de l— p—rtie sF ƒ—nssurpriseD plus les pro˜—˜ilités — priori des ™l—sses sont f—i˜lesD plus les perform—n™es de™l—ssi(™—tion ™hutentF €—rmi les ™l—ssi(eurs élément—ires @peD pisherD et iwAD le modèledis™rimin—nt @pisherA est le plus ro˜uste visEàEvis de l— ™omplexité des mél—ngesF einsiDm—lgré de très ˜onnes perform—n™es en ™l—ssi(™—tion superviséeD les forêts —lé—toires@peA sont peu perform—ntes dès que les pro˜—˜ilités — priori de ™l—ssi(™—tion ˜—issentFgepend—ntD l— ™om˜in—ison de ™l—ssi(eursD soit p—r l9utilis—tion d9un pro™essus itér—tif@peCsterIAD soit p—r l— fusion de ™l—ssi(eurs @pisherCpeA d—ns un pro™essus itér—tifDpermet d9—ppro™her les ex™ellentes perform—n™es o˜tenues p—r les forêts —lé—toires @peAen ™l—ssi(™—tion superviséeF ve f—i˜le t—ux de réussite o˜tenu p—r l— méthode itér—tive4 sterP 4 s9explique p—r l— s™ission de l9ensem˜le d9—pprentiss—ge à ™h—que itér—tionD telque les données d9—pprentiss—ge ne soient plus —ssez nom˜reuses pour que l9org—nis—tionsp—ti—le de l9ensem˜le de toutes les données soit ™onven—˜lement modéliséeF
  • 107. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xiv ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE v— troisième expérien™e ™on™erne l— ro˜ustesse des ™l—ssi(eurs rel—tivement —unom˜re de ™l—sses pro˜—˜les pour un exemple d9—pprentiss—ge @™omme d—ns l— se™tionSFRFQ du ™h—pitre SAF €our ™el—D R nive—ux de ™omplexité des données d9—pprentiss—gesont ™réésF ves proportions ™i˜les qui permettent de générer ™es ensem˜les d9—pprenEtiss—ge sont données d—ns l9—nnexe QF ves résult—ts de simul—tion sont donnés d—ns let—˜le—u VFPF gette foisD ™ontr—irement à l— tend—n™e génér—le qui se dég—ge de l— p—rtiesD donn—nt l— méthode 4 peCsterP 4 plus perform—nteD nous ™onst—tons que l— fusionitér—tive du ™l—ssi(eur dis™rimin—nt —ve™ les forêts —lé—toires @pisherCpeA permet d9o˜Etenir les meilleurs résult—ts —ve™ une moyenne génér—le de 84% de réussite et un 陗rttype de 5%F €our ™e jeu de donnéesD les perform—n™es de ™l—ssi(™—tion ne dép—ssentp—s 70% en moyenne —ve™ le pro™essus itér—tifF gel— illustre d9une p—rt les di0™ultésde l9—pprentiss—ge —utom—tique qu—nt —u ™hoix du ™l—ssi(eurD et d9—utre p—rt ™ommentles perform—n™es d9un ™l—ssi(eur dépendent de l9org—nis—tion intrinsèque des nu—ges depoints pour ™h—que ™l—sseF Type Supervisé Faiblement Faiblement Non dapprentissage supervisé (1) supervisé (2) supervisé FA+Iter1 0.89 0.81 0.38 0.25 FA+Iter2 0.89 0.47 0.32 0.25 D5 Fisher+FA 0.89 0.75 0.62 0.24 FA 0.89 0.59 0.35 0.25 Fisher 0.70 0.72 0.61 0.27 EM 0.66 0.47 0.46 0.28 Tableau 8.1  Evolution du taux moyen de classication du jeu de données D5 en fonction de la complexité des labels de lensemble dapprentissage. La complexité des données dapprentissage évolue du cas de lapprentissage su- pervisé au cas équiprobable, en passant par des cas dapprentissage faiblement supervisé plus ou moins complexes (cf. annexe 2). Nombre de Moyennes / classes dans 1 2 3 4 Ecart type le mélange FA+Iter1 0.89 0.72 0.62 0.45 0.67 - 0.18 FA+Iter2 0.89 0.79 0.71 0.42 0.70 - 0.20 Fisher+FA 0.89 0.86 0.86 0.77 0.84 - 0.05 D5 FA 0.89 0.71 0.68 0.58 0.71 - 0.12 Fisher 0.70 0.71 0.65 0.56 0.65 - 0.06 EM 0.66 0.52 0.51 0.47 0.54 - 0.08 Tableau 8.2  Evolution du taux moyen de classication du jeu de données D5 en fonction du nombre de classes dans chaque mélange. Des jeux de proportions sont créés, allant du cas supervisé au cas où toutes les classes sont probables (annexe 3).8.5.2 Campagne PELGAS00Le jeu de données ves données sont ™elles de l— ™—mp—gne €ivqeƒHHF v9expert fournit un ensem˜led9iƒh… @de I milleA pour lesquels l9estim—tion de ˜iom—sse est ™onnue et —uxquels estjointe l— liste des p—r—mètres des ˜—n™s de poissonsF xous disposons —ussi de l9ensem˜ledes ™h—lut—gesD qui renseignent sur les espè™es présentes —u moment du ™h—lut—geD et
  • 108. 8.5. PERFORMANCES ™xv Figure 8.3  Bancs de poissons de la campagne PELGAS00. Ceux dont la priori est connu constituent lensemble dapprentissage, les autres sont classés.surtoutD qui déterminent l— t—ille des poissons p—r espè™e —(n d9ee™tuer l— ™onverEsion entre l9énergie d9un ˜—n™ de poissons et s— ˜iom—sseF xotons que les ˜iom—ssesdes im—ges d9—pprentiss—ge sont ™elles év—luées p—r l9expertD et non ™elles issues du™h—lut—geF gette pr—tique est —dmise p—r les experts ‘IPT“ ‘PIU“ qui ont l— volonté deminimiser les erreurs possi˜les induites p—r un ™h—lut—ge dont l9é™h—ntillonn—ge ne ser—itp—s représent—tif de l9é™osystème environn—ntF ves ˜—n™s de poissons s—ns —nnot—tionet ™eux dont l9— priori est ™onnu sont représentés d—ns l— (gure VFQF h—ns ™e jeu dedonnéesD les é™hos isolésD qui ™orrespondent à du pl—n™ton ou à des poissons isolésD nesont p—s ™onsidérés ™omme ét—nt des ˜—n™s de poissons et ne sont p—s pris en ™ompted—ns ™ette expérien™eF gel— explique l9—spe™t mor™elé des tr—nsvers—les de prospe™tiondont ont été supprimés les iƒh… s—ns ˜—n™s de poissons —vérésF v9étude des perform—n™es de ™l—ssi(™—tion des modèles de ™l—ssi(™—tion f—i˜lementsupervisés — montré que les t—ux de réussite sont ˜—s qu—nd l9ensem˜le des — priorides ™l—sses sont ˜—sF in rev—n™heD les t—ux de réussite restent ™onven—˜les siD d—nsl9ensem˜le des données d9—pprentiss—geD il existe quelques — priori forts pour ™h—que™l—sseF ves modèles de ™l—ssi(™—tion peuvent —lors être vus ™omme des (ltres qui —tEténuent l9in)uen™e des exemples ˜ruités d—ns l9—pprentiss—ge en m—inten—nt ™elle des
  • 109. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xvi ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNEexemples dont l9— priori est fortF he ™e f—itD il est né™ess—ire d9—n—lyser les mél—ngeso˜tenus lors de l— ™—mp—gne €ivqeƒHH pour déterminer si les ™l—sses sont représenEtées p—r des — priori forts en nom˜res su0s—ntsF einsiD d—ns l9—nnexe RD les pro˜—˜ilités— priori et les ˜iom—sses —sso™iées sont tr—™ées pour ™h—que ™h—lut—ge et pour ™h—queespè™e X l— ƒ—rdine @(gure WFPAD le w—quere—u @(gure WFRAD le ghin™h—rd @(gure WFQADl9en™hois @(gure WFSAD et les espè™es néglige—˜les @(gure WFTAF ves espè™es néglige—˜lesregroupent des poissons ™omme le werl—n fleu et le ƒpr—t dont l— ˜iom—sse est peureprésentéeF e(n d9ét—˜lir si le nom˜re de ˜—n™s de poissons est su0s—nt pour ™h—que™l—sseD le nom˜re de ˜—n™s p—r im—ge est —ussi tr—™é en fon™tion de l9indi™e du ™h—lut—ge@d—ns l9—nnexe RD (gure WFUAF xom˜re d9im—ge xom˜re tot—l €oids moyen pour lesquelles de ˜—n™s de poissons p—r {πni } ≥ 0.8 telles que ™h—lut—ge @en kgA {πni } ≥ 0.8 ƒ—rdine T ITU PST ghin™h—rd PQ STP PIP w—quere—u IQ RTV QIP en™hois IT UWI IRU ispè™es H H SW néglige—˜les Tableau 8.3  Pour la sardine, le chinchard, le maquereau, lanchois et les espèces négligeables, le nombre dimages pour lesquelles les probabilités a priori sont supérieures à 0.8 est reporté, ainsi que le nombre total de bancs de poissons dans les images telles que les probabilités a priori sont supérieures à 0.8, et le poids moyen des poissons par chalutage. ves prin™ip—les inform—tions sont résumées d—ns le t—˜le—u VFQF „out d9—˜ordD pourles R espè™es prin™ip—lesD les im—ges d9—pprentiss—ge ™ontiennent su0s—mment de ˜—n™sde poissons pour estimer ™orre™tement les p—r—mètres d9un modèle de ™l—ssi(™—tionF €—rexempleD pour l— s—rdineD ITU ˜—n™s de poissons ont une pro˜—˜ilité — priori supérieure àHDV d9être ™l—ssés p—rmi l— s—rdineF ƒeules les espè™es néglige—˜les sont peu représentées—ve™ H ˜—n™ de poissons qui ont une pro˜—˜ilité — priori de ™l—ssi(™—tion supérieure à HDVm—is IHQ ˜—n™s de poissons qui ont une pro˜—˜ilité — priori de ™l—ssi(™—tion supérieureà HDSF gel— est véri(é p—r le poids moyen p—r espè™e d—ns l9ensem˜le des ™h—lut—ges quine dép—sse p—s SWkg pour les espè™es néglige—˜lesF €our ™on™lureD l— qu—ntité de ˜—n™sl—˜ellisés —ve™ un — priori fort est su0s—nteD ex™epté pour les espè™es néglige—˜lesFLes performances globales €lusieurs ™om˜in—isons de des™ripteurs sont envis—ge—˜lesF €—r exempleD seuls lesdes™ripteurs des ˜—n™s de poissons sont utilisés pour l9—pprentiss—ge des modèles de™l—ssi(™—tionF e ™es des™ripteurs de ˜—n™s de poissonsD peuvent être —joutés des desE™ripteurs glo˜—ux ™omme ™eux proposés p—r furgos ‘PHT“D ou ™eux proposés d—ns le™h—pitre UD ou les deuxF ves ™oordonnées géogr—phiques peuvent —ussi être —joutées
  • 110. 8.5. PERFORMANCES ™xvii™omme des™ripteur lo™—l de ™h—que ˜—n™ de poissonsF e ™el— s9—joute l— f—çon de ™—lE™uler l— ˜iom—sse @l9—ppro™he 4 dure 4D ™fF l9expression @VFUAD ou l9—ppro™he 4 souple4D ™fF l9expression @VFVAA et le ™hoix du ™l—ssi(eurF v9ensem˜le de ™es ™om˜in—isons™onduit à des résult—ts très nom˜reux m—is —ssez sem˜l—˜lesF h—ns ™ette se™tionD nousne montrons que les solutions résult—nts des deux meilleures ™om˜in—isons —u sens d9un™ert—in ™ritère qui s9—ppuie sur l— ™orrél—tionF ƒoit les ve™teurs BMiexp = {BMij } et expBMialg = {BMij }D respe™tivement rel—tifs à l9év—lu—tion de l— ˜iom—sse de l9espè™e i algdonnée p—r l9expert et ™elle o˜tenue de m—nière —lgorithmiqueD tel que les ™ompos—ntesdes ve™teurs soient les im—ges indi™ées p—r j @iFeF les iƒh…AF elorsD l— ™orrél—tion estun s™—l—ire qui renseigne sur l— simil—rité entre les deux ve™teurs BMiexp et BMialg Fv9expression de l— ™orrél—tion est donnée p—r X N exp ¯ exp alg ¯ alg (BMij − BM i )(BMij − BM i ) j=1 Γi (BMiexp , BMialg ) = @VFITA N N exp ¯ exp (BMij − BM i )2 alg ¯ alg (BMij − BM i )2 j=1 j=1 ¯où N indi™e toutes les im—ges de l— ™—mp—gne d9o˜serv—tion et BMi est le ve™teurmoyenF v— ™orrél—tion est un s™—l—ire ™ompris entre 0 et 1F ƒi les ve™teurs sont identiquesD—lors l— ™orrél—tion v—ut ID sinonD plus les ve™teurs dièrentD plus l— ™orrél—tion tendvers HF pin—lementD pour juger de l9e0™—™ité d9une méthode de ™l—ssi(™—tion et du ™hoixdes des™ripteursD un ™oe0™ient moyen de ™orrél—tion Γ(BM exp , BM alg ) sur l9ensem˜ledes ™l—sses i est ™—l™ulé X I 1 Γ(BM exp , BM alg )= Γi (BMiexp , BMialg ) @VFIUA I i=1 h—ns le t—˜le—u WFU de l9—nnexe SD les ™oe0™ients de ™orrél—tion moyens sont —fE(™hés pour deux méthodes de ™—l™ul de l— ˜iom—sseD pour plusieurs ™om˜in—isons dedes™ripteursD et pour plusieurs ™l—ssi(eursF einsiD si l— méthode 4 souple 4 de ™—l™ul del— ˜iom—sse est —ppliquée @™fF équ—tion @VFVAAD —lors SOFT = 1 et HARD = 0F ƒil— méthode 4 dure 4 de ™—l™ul de l— ˜iom—sse est —ppliquée @™fF équ—tion @VFVAAD —lorsSOFT = 1 et HARD = 0F ƒi les ™oordonnées géogr—phiques des ˜—n™s de poissons@l—titude et longitudeA sont —joutées ™omme des™ripteurs lo™—ux en ™omplément desdes™ripteurs morphologiques et énergétiquesD —lors Coord. géographique = 1D sinonCoord. géographique = 0F ƒi les des™ripteurs glo˜—ux présentés p—r furgos ‘PHT“sont —joutés —ux des™ripteurs lo™—uxD —lors Burgos = 1D sinon Burgos = 0F ƒi lesdes™ripteurs glo˜—ux proposés d—ns ™e tr—v—il de thèse @™fF l— se™tion UFR du ™h—pitre UAsont —joutés —ux des™ripteurs lo™—uxD —lors Ripley = 1D sinon Ripley = 0F xotonsque tous les des™ripteurs glo˜—ux peuvent être —joutés en même temps —ux des™ripteurslo™—uxD d—ns ™e ™—s Burgos = 1 et Ripley = 1F in plus des ™l—ssi(eurs proposés d—nsl— p—rtie sD à s—voir le modèle génér—tif @GénératifD ™fF ™h—pitre QAD le modèle dis™rimiEn—nt @Kpca/FisherD ™fF ™h—pitre QAD les forêts —lé—toires ou 4 ‚—ndom porest 4 @FAD ™fF™h—pitre Q et RAD l— fusion du modèle dis™rimin—nt et des forêts —lé—toires @Fisher+FAD™fF ™h—pitre Q et RAD et le pro™essus itér—tif @FA+ItératifD ™fF ™h—pitre Q et RAD nous
  • 111. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xviii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE—joutons un ™l—ssi(eur dis™rimin—nt qui exploite l9optimis—tion proposée d—ns l— se™tionVFRFP @Optimisation Kpca/FisherAF ev—nt de présenter les deux ™om˜in—isons qui donnent les meilleurs résult—tsD nouspro™édons à une —n—lyse glo˜—leF „out d9—˜ordD le ™—l™ul 4 souple 4 de l— ˜iom—ssedonne de meilleurs résult—ts en moyenne pour ™h—™un de ™l—ssi(eursF gel— s9expliquep—r le f—it que les erreurs de ™l—ssi(™—tion sont —tténuées si un mél—nge de ™l—sses est—ttri˜ué à ™h—que ˜—n™ de poissonsD et queD —u ™ontr—ireD elles ont un imp—™t import—ntsi une seule ™l—sse est —ttri˜uée à ™h—que ˜—n™ de poissonsF ƒeul le ™l—ssi(eur dis™rimiEn—nt @Kpca/FisherA dièreD —ve™ un ™oe0™ient de ™orrél—tion moyen de HDRVR d—ns le™—s 4 souple 4 @Soft = 1AD ™ontre HDRWI d—ns le ™—s 4 dur 4 @Hard = 1AF he l— mêmef—çonD l9utilis—tion des ™oordonnées géogr—phiques ™omme des™ripteurs lo™—ux —e™teles perform—n™es de ™l—ssi(™—tion en moyenneF gel— est toujours le ™—s en moyenneDex™epté pour Hard = 1D Bugos = 0D et Ripley = 0D tel que le ™oe0™ient de ™orrél—Etion v—ut HDRTQ si Coord. géographique = 0D et HFRUH Coord. géographique = 1Fves ™on™lusions qu—nt —u ™hoix des des™ripteurs sont di0™iles à ét—˜lir t—nt les ™oe0E™ients de ™orrél—tion sont v—ri—˜lesF €lusieurs ™—s de (gures —pp—r—issentF €—r exempleD™elui de l9—ugment—tion des perform—n™es —ve™ l9—jout d9inform—tion des™riptive @™9estle ™—s du modèle FA+Itératif —ve™ Coord. géographique = 0 et Soft = 1D pourlequel le ™oe0™ient de ™orrél—tion p—sse de HDRWQ d—ns le ™—s de des™ripteurs lo™—uxuniquement à HDSPI en utilis—nt tous les des™ripteurs disponi˜lesAF yn trouve —ussi le™—s inverse pour lequel le ™oe0™ient de ™orrél—tion ™hute —ve™ l9—jout d9inform—tionsdes™riptives @™9est le ™—s du modèle Optimisation Kpca/Fisher —ve™ Coord. géo-graphique = 0 et Hard = 1D pour lequel le ™oe0™ient de ™orrél—tion p—sse de HDSPTd—ns le ™—s de des™ripteurs lo™—ux uniquement à HDSHT en utilis—nt tous les des™ripteursdisponi˜lesAF „ous les —utres ™—s de (gures sont présents s—ns pouvoir ee™tuer une—n—lyse logiqueF gel— s9explique p—r l9inst—˜ilité re™onnue des ™l—ssi(eurs rel—tivement—u nom˜re de des™ripteurs qui peuventD en fon™tion du ™l—ssi(eurD être sour™e de ˜ruitsouD —u ™ontr—ireD d9—mélior—tion des résult—ts si l— qu—ntité de des™ripteurs —ugmenteFhe plusD le m—nque de tend—n™e logique et ™y™liqueD ™ontr—irement —ux expérien™espré™édentes pour lesquelles les résult—ts sont ™onst—nts et st—˜les @™fF t—˜le—ux SFPD SFQDUFQD UFRD VFID et VFPAD s9explique p—r l9—˜sen™e de v—lid—tion ™roiséeD ™—r nous tr—itonsdes données 4 réelles 4F einsiD s—ns v—lid—tion ™roiséeD les tend—n™es des perform—n™esde ™l—ssi(™—tions ser—ient —ussi di0™iles à —n—lyserF €—r exempleD nous —urions souh—itévoir les résult—ts s9—méliorer à ™h—que —jout d9inform—tions des™riptivesF gette rem—rquesouligne l— di0™ulté d9év—luer des modèles de ™l—ssi(™—tion et des des™ripteurs sur desdonnées réelles ™ontr—irement à des données synthétiquesF v9—n—lyse glo˜—le pré™édente est ee™tuée sur des moyennes de moyennesF gette—ppro™he — ses limitesF h9—illeurs les meilleurs résult—ts du t—˜le—u WFU de l9—nnexe S sonto˜tenus pour le ™l—ssi(eur Optimisation Kpca/Fisher —ve™ un ™—l™ul de ˜iom—sse4 dur 4D —lors que l— tend—n™e génér—le donne l— f—veur à un ™—l™ul 4 souple 4 de l—˜iom—sseF xous proposons d—ns l— suite d9—n—lyser plus en dét—ils les perform—n™es de™l—ssi(™—tion des deux meilleures ™on(gur—tions du t—˜le—u WFU de l9—nnexe SF
  • 112. 8.5. PERFORMANCES ™xixDeux exemples ves deux meilleures ™on(gur—tions du t—˜le—u WFU de l9—nnexe S sont étudiées m—inEten—ntF sl s9—git pour un ™—l™ul 4 dur 4 de l— ˜iom—sseD de l9emploi du ™l—ssi(eur Op-timisation Kpca/Fisher s—ns les ™oordonnées géogr—phiques et s—ns les des™ripEteurs glo˜—uxD et pour un ™—l™ul 4 souple 4 de l— ˜iom—sseD de l9emploi du ™l—ssi(eurFA+Itératif s—ns les ™oordonnées géogr—phiques m—is —ve™ tous les des™ripteurs gloE˜—uxF €our ™es deux ™on(gur—tionsD les ™oe0™ients de ™orrél—tion v—lent respe™tivementHDSPT et HDSPIF Figure 8.4  A gauche : corrélation entre la biomasse par espèce estimée par lexpert et celle estimée par les méthodes algorithmiques. La corrélation moyenne, qui prend en compte toutes les combinaisons possibles du tableau 9.7 de lannexe 5 est comparée à celles obtenues pour deux modèles algorithmiques : le processus itératif amélioré (FA+Itératif, section 4.3.2) en ajoutant tous les descripteurs globaux (Burgos = 1 et Ripley = 1) du chapitre 7 et le modèle discriminant (Optimisation Kpca/Fisher, section 3.3) en utilisant les descripteurs de bancs de poissons seuls. A droite, la biomasse par espèce estimée par lexpert, par la méthode algorithmique FA+Itératif avec tous les descripteurs globaux, et par la méthode Optimisation Kpca/Fisher sans ajout de descripteurs globaux. h—ns l— (gure VFRD à g—u™heD nous tr—çons les ™oe0™ients de ™orrél—tion en fon™Etion des espè™es pour les deux modèles pré™édemment dé™rits et pour l— ™orrél—tionmoyenne o˜tenue pour toutes les ™om˜in—isons possi˜les du t—˜le—u WFU de l9—nnexeS et pour tous les ™l—ssi(eursF gel— permet de ™onst—ter qu9il y — une tend—n™e géEnér—le suivie p—r l9ensem˜le des perform—n™es o˜tenues pour toutes les modélis—tionspossi˜lesF xous ™onst—tons —ussi que les deux meilleures modélis—tions produisent desrésult—ts sensi˜lement équiv—lents et très pro™hes de l— tend—n™e moyenneF he m—nièregénér—leD quelque soit les méthodes de ™l—ssi(™—tionD les estim—tions de ˜iom—sse del9—n™hois et des espè™es néglige—˜les sont plus pro™hes de ™elles de l9expert que ne lesont ™elles du ™hin™h—rd et du m—quere—uF intre les deuxD l— s—rdineF e droite de l—
  • 113. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xx ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE(gure VFRD nous représentons les ˜iom—sses estimées p—r espè™e pour les deux modéliEs—tions ™onsidérées et ™elles estimées p—r l9expertF €remièrementD si les tend—n™es des™orrél—tions sont sensi˜lement équiv—lentes d9une modélis—tion à l9—utreD les ˜iom—ssesrésult—ntes peuvent être très diérentesF €—r exempleD pour le m—quere—u l9陗rt de ˜ioEm—sse entre les deux méthodes —lgorithmiques —tteint QSH HHH tonnesF gel— s9expliquep—r le f—it que le m—quere—u n9— p—s de vessie n—t—toireD et p—r ™onséquentD les p—r—Emètres {ai , bi , ci , di } de ™onversion d9énergie à ˜iom—sse de l— se™tion VFRFID dièrentfortement pour le m—quere—u p—r r—pport —ux —utres espè™esF einsiD quelques erreursde ™l—ssi(™—tion peuvent —voir un imp—™t énorme sur l9év—lu—tion de l— ˜iom—sseF €—rexempleD si quelques ˜—n™s de s—rdines sont ™l—ssés p—rmi les ˜—n™s de m—quere—uxD l—v—ri—tion de ˜iom—sse pour l— s—rdine est très inférieure à ™elle o˜servé pour le m—queEre—uF gel— explique qu9entre les deux méthodes —lgorithmiquesD il y — des diéren™esf—i˜les de ˜iom—sse pour l— s—rdine et le ™hin™h—rdD qui se tr—duisent p—r un gros 陗rtde ˜iom—sse pour le m—quere—uF heuxièmementD l9陗rt de l9estim—tion de ˜iom—sseentre les deux types de modélis—tion et l9expert se justi(e p—r de grosses erreurs de™l—ssi(™—tionF in eetD de m—nière génér—le les perform—n™es sont —ssez moyennes etles erreurs introduisent des ˜i—is d—ns l9estim—tion de l— ˜iom—sseF gomme illustré préE™édemmentD ™es ˜i—is proviennent des ™onversions de l9énergie du ˜—n™ de poissons en˜iom—sse de poissonsF €our illustrer les pro˜lèmes de ™l—ssi(™—tionD nous tr—çons les ™—rtes de ˜iom—sseo˜tenues p—r l9expert et p—r les deux méthodes —lgorithmiques pour l9espè™e qui donneles meilleurs résult—ts @l9—n™hoisA et ™elle qui donne les moins ˜ons résult—ts @le m—queEre—uAF einsiD d—ns l— (gure VFSD nous tr—çons l— ˜iom—sse —sso™iée à ™h—que iƒh…D iFeFtous les milles m—rinsD d—ns le pl—n t—ngent à l— surf—™e de l— terreF gh—que ™er™le estproportionnel à l— ˜iom—sse estimée X plus le ™er™le est gr—ndD plus l— ˜iom—sse estiméeest import—nteF ves ™—rtes ™on(rment les résult—ts de l— (gure VFR X d—ns le ™—s oùl9expert — ™orre™tement estimé l— ˜iom—sse des diérentes espè™esD l— ™l—ssi(™—tion des˜—n™s d9—n™hois est mieux réussies que ™elle des ˜—n™s de m—quere—uxF gel— est vr—iquelque soit l— modélis—tionF in eetD nous ™onst—tons que pour les trois estim—tionsde l— ˜iom—sse d9—n™hoisD l— m—jorité des —grég—tions se situe d—ns le sudEest du qolfede q—s™ogneD en f—™e de l— qirondeF in rev—n™heD pour le m—quere—uD ™onformément—ux f—i˜les v—leurs de ™orrél—tion de l— (gure VFRD il y — ˜e—u™oup d9erreurs de ™l—sEsi(™—tionF ves ™—rtes de distri˜utions de ˜iom—sse montrent à quel point l9erreur estimport—nteF €our ™h—™un des trois types de méthode d9év—lu—tionD les ™—rtes o˜tenuessont diérentesF v— prin™ip—le expli™—tion est l— forte lo™—lis—tion des —n™hois d—ns lesudEest du qolfe de q—s™ogneD produis—nt des p—r—mètres des™riptifs des ˜—n™s de poisEsons pro™hes de situ—tions monomod—lesF in eetD ™omme l9—n™hois est ™on™entré d—nsune p—rtie du qolfe de q—s™ogneD les inform—tions des™riptives sont peu v—ri—˜les ™equi f—™ilite l9estim—tion des p—r—mètres des modèles de ™l—ssi(™—tionF ejoutons à ™el—que l9—n™hois est une espè™e de poisson dont les p—r—mètres des™riptifs sem˜lent plusdis™rimin—nts que pour les —utres espè™esF in eetD les m—tri™es de ™onfusion d—ns l—(gure UFR montrent sur un jeu de données p—rti™ulier qu9entre l— s—rdineD l9—n™hoisD le™hin™h—rd et le merl—n ˜leuD l9—n™hois est l9espè™e l— plus dis™rimin—nteF
  • 114. 8.5. PERFORMANCES ™xxi Figure 8.5  Estimation de la biomasse danchois et de maquereau par lex- pert, par la méthode discriminante avec optimisation telle que Ripley = 0, Cluster = 0 et Soft = 0, et par le processus itératif tel que Ripley = 1, Cluster = 1 et Soft = 1. La biomasse est représentée par des cercles dont le rayon est proportionnel à la biomasse estimée.8.5.3 Discussion h—ns ™e ™h—pitreD nous —vons —ppliqué les méthodes d9—pprentiss—ge f—i˜lement suEpervisé proposées d—ns l— p—rtie s —u ™—s de l9év—lu—tion de l— ˜iom—sse des espè™esh—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts sont positifs pour l9—n™hois @(gureVFSAD m—is sont glo˜—lement insu0s—nts pour être ee™tifsF ve tr—nsfert d—ns le dom—inede l9—ppli™—tion né™essite ˜e—u™oup d9—mélior—tionsF gepend—ntD retenons que l— ™l—ssiE(™—tion de ˜—n™s de poissons n9est p—s l— f—çon usuelle de pr—tiquer les év—lu—tions de˜iom—ssesD ™elleE™i est —™™omplie p—r une prop—g—tion glo˜—le de l9inform—tion de proEportion des espè™es d—ns les im—ges @se™tions VFP et VFQAF v9o˜je™tif de ™ette —ppli™—tionest dou˜leF„out d9—˜ordD il s9—git de v—lider l9emploi des méthodes de ™l—ssi(™—tion f—i˜lement suEpervisé sur un ™—s pr—tiqueF €our l9év—lu—tion de ˜iom—sseD les résult—ts montrent quel9—ppro™he est envis—ge—˜le en —pport—nt des —mélior—tions etD de plusD en n9ess—y—ntp—s d9ee™tuer l9év—lu—tion dire™te de l— ˜iom—sse m—is plutôt d9utiliser ™es méthodes
  • 115. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xxii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNEpour ee™tuer une préE™l—ssi(™—tion ™omme le f—it l9expert @se™tion VFPAFin(nD ™es résult—ts —pportent l— preuve queD pour l9év—lu—tion de ˜iom—sseD l— ™l—ssi(E™—tion des ˜—n™s de poisons est moins e0™—™e qu9une —ppro™he glo˜—le de prop—g—tionde l9inform—tion des proportions d—ns les im—ges ‘PIW“F €lusieurs r—isons expliquent les résult—ts nu—n™és o˜tenus d—ns ™e ™h—pitre X IF Incertitude sur la validité des échantillonnages. v9unique solution pour déE terminer les espè™es présentes d—ns les im—ges est le ™h—lut—geF he mêmeD ™e ™h—luE t—ge indique l— proportion des ™l—sses d—ns les im—ges qui est l— ˜—se des méthodes d9estim—tionsF „outefoisD on montre qu9il existe une forte in™ertitude qu—nt —ux inform—tions données p—r le ™h—lut—ge ‘IPT“F €remièrementD il existe des pro˜lèmes d9évitements des poissons rel—tivement —u (let de pê™heF ƒeule une p—rtie d9un ˜—n™ de poissons peut être ™—pturéeD et m—lgré l9impl—nt—tion de sondeurs à l9 4 entrée 4 des ™h—lutsD il est très di0™ileD voire impossi˜le de déterminer ex—™tement le ™omportement des poissons visEàEvis du (let de pê™heF einsiD pour une o˜serv—E tion —™oustique p—rti™ulièreD l— proportion des espè™es pê™hées peut être diérente de l— proportion réelle des espè™es vue d—ns l9é™hogr—mmeF ejoutons à ™el— que le ™omportement des poissons —utours du (let de pê™he peut v—rier d9une espè™e à l9—utreF yn peut supposer p—r exemple que ™ert—ins poissons sont plus vifs que d9—utresD ou queD f—™e —u d—ngerD ils ont des plus gr—ndes f—™ultés de dispersionsF heuxièmementD le ™h—lut—ge ne ™ouvre p—s l— tot—lité de l— ™olonne d9e—uF v9ouverE ture verti™—le du (let est de PH mètresD tel qu9il est di0™ile de s—voir pré™isément si un ˜—n™ de poissons est ™—pturé ou nonD et si l— proportion pê™hée est ™elle qui est o˜servée d—ns l9é™hogr—mmeF in outreD les ™h—lut—ges de fond sont soumis à des s—uts qui ™orrespondent à des v—ri—tions de vitesse du ˜—te—uD l—iss—nt p—sser ou non ™ert—ins poissons ™ollés —u fondF v9—ttri˜ution de ™h—lut—ges moyens sur des zones spé™i(quesD ™omme le f—it l9expert @™fF se™tion VFPAD est un moyen e0™—™e pour diminuer l9in™ertitude sur les proporE tionsF ves proportions moyennes —insi o˜tenues sont st—tistiquement plus (—˜lesF sl ser—it intéress—nt de pro™éder de l— même f—çon pour l9estim—tion de l— ˜iom—sse à l9—ide d9une ™l—ssi(™—tion —utom—tique des ˜—n™s de poissonsF €—r exempleD les pro˜—˜ilités — priori utilisées pour l9—pprentiss—ge pourr—it être issues d9un ™h—E lut—ge moyen qui soit l— ™om˜in—ison des ™h—lut—ges les plus pro™hesF in(nD les pro˜lèmes d9évitements des poissons p—r r—pport —u ™h—lut—ge et de positions du (let d—ns l— ™olonne d9e—u peuvent être —tténués à l9—ide de théories plus génér—les que l— théorie des pro˜—˜ilitésF €—r exempleD l— théorie de hempsterEƒh—fer ‘I“D qui permet de prendre des dé™isionsD se ˜—se à l— fois sur l— pro˜—˜ilité d9un évéE nement et sur un interv—lle de ™on(—n™e de ™ette pro˜—˜ilitéF he l— même f—çonD pour notre ——ireD on peut im—giner que les pro˜—˜ilités — priori des ™l—sses ne sont p—s ™onst—ntesD m—is qu9elles sont ™omprises d—ns un interv—lle qui dépend de p—r—mètres ™omme l— sonde ou l— position du ™h—lut—geF h—ns ™e ™—sD une telle théorie peut être —ppliquéeF PF Incertidudes de lexpertise. sl est re™onnu que les méthodes d9estim—tion des sto™ks d9espè™esD qu9elles s9—ppuient sur une —n—lyse d9experts ou sur un pro™édé —lgorithmiqueD sourent de l9impossi˜ilité d9év—luer le t—ux d9erreurs de ™l—ssi(™—E tion ‘IPT“F in eetD à l9inst—r des —méri™—ins de l— xyeD des norvégiens de l9sw‚D
  • 116. 8.5. PERFORMANCES ™xxiii des esp—gnols de l9siy et des fr—nç—is de l9sfremerD tous les gr—nds org—nismes intern—tion—ux qui emploient des te™hniques d9estim—tion ™omme ™elle présentée d—ns l— se™tion VFPD s9—™™ordent sur l9in™—p—™ité de mesurer qu—ntit—tivement l— justesse d9une estim—tion ‘PPS“F gel— vient du f—it que les o˜lets sousEm—rins sont invisi˜les à nos yeuxD et qu9en dehors des sondeurs —™oustiques dont l— résolution reste peu pré™iseD l9homme ne dispose p—s en™ore d9outils d9o˜serv—tion vr—iment —ppropriéF x9—y—nt p—s de vérité terr—in digne de ™e nomD l— seule te™hnique pour mesurer l— pertinen™e d9un —lgorithme ™onsiste à ™omp—rer les solutions à ™elle de l9expertF w—isD dû à l— forte in™ertitude de l9estim—tion de référen™eD un doute persiste qu—nt —ux perform—n™es de ™l—ssi(™—tion réelles des méthodes —lgorithE miquesF he plusD ™el— rend ™omplexe l— ™omp—r—ison des —ppro™hes —utom—tiques entre ellesF gomment s—voir si une méthode est mieux qu9une —utre c gomment ee™tuer une étude de p—r—mètre c gepend—ntD l— (gure VFRD à g—u™heD montre une ™orrél—tion entre les mesures de ˜iom—sse des diérentes méthodesD —ve™ qu—siment les mêmes r—pport de ˜iom—sse p—r espè™eF einsiD en se repl—ç—nt d—ns le ™ontexte du suivi des sto™ksD —ve™ l9o˜je™E tif de déterminer quels sont les tend—n™es des évolutions des ˜iom—sses d9espè™es d—ns une zone p—rti™ulièreD toutes ™es —ppro™hes restent v—l—˜les et pertinentesF g—r si ™es —n—lyses sont ™onduites ™h—que —nnéeD —lors il est possi˜le de prédire si une espè™e perdureD est en voie de disp—ritionD ou se multiplie d—ns une zoneD ™e qui est déjà intéress—nt ˜iologiquementF QF Formalisme probabiliste incorrect. €our ™ette —ppli™—tionD nous ™onsidérons que les pro˜—˜ilités — priori des ™l—sses d—ns les im—ges sont données p—r les proE portions de ˜iom—sse d9espè™es d—ns les ™h—lut—gesF ‚—menées à l9é™helle des ˜—n™s de poissonsD ™es proportions donnent une pro˜—˜ilité de ™l—ssi(™—tion — priori pour ™h—que ˜—n™ de l9im—geF gette dém—r™he est ™ritiqu—˜leF in eetD prenons l9exemple extrême d9une im—ge qui ™ontient deux espè™esD —ve™ un très gros ˜—n™ de s—rdines et deux petits ˜—n™s de ™hin™h—rdsD tel que l— ˜iom—sse de s—rdine soit W fois plus import—nte que ™elle des ™hin™h—rdsF in termes de ˜iom—sseD l— pro˜—˜ilité des s—rdines est de HDW et ™elle des ™hin™h—rds est de HDI —lors qu9en ré—litéD nous —vons I ™h—n™e sur Q d9être en présen™e d9un ˜—n™ de s—rdineD soit une pro˜—˜ilité de HDQQ pour l— s—rdine et P ™h—n™es sur Q d9être en présen™e d9un ˜—n™ de ™hin™h—rdsD soit une pro˜—˜ilité de HDTTF get exemple montre que ™e form—lisme pro˜—˜iliste est in™orre™t et qu9un tr—v—il devr—it être fourni pour résoudre ™e pro˜lèmeF gette rem—rque montre les limites de l9utilis—tion des modèles d9—pprentiss—ge f—i˜lement supervisé pour l— ™l—ssi(™—tion des ˜—n™s de poissons d—ns le ™—dre de l9év—lu—tion de l— ˜iom—sseD du moins telle que proposée d—ns ™e tr—v—il de thèseF v9—ppro™he le qui ™onsiste à ventiler des proportions de ˜iom—sse d—ns des groupements d9im—ges simil—ires sem˜le plus —d—ptée à ™e pro˜lème @™fF se™tions VFP et VFQAF gepend—ntD une méthode —utom—tique d9estim—tion des proportions réelles d—ns les im—ges de ™h—lut—ges peut être envis—géeF v9utilis—tion d9un form—lisme utilis—nt les fon™tions de ™roy—n™es et le r—isonnement pl—usi˜le de l— théorie de hempsterE ƒh—fer sem˜le en™ore une fois pertinente ‘I“F he plusD il est envis—ge—˜le qu9en ™ours de ™—mp—gnes de pê™hes —™oustiquesD l9expert l—˜élise ™ert—ins ˜—n™sD du moins les plus sûrsD fourniss—nt une ˜—se solide de préE™l—ssi(™—tion en vue de l9estim—tion des pro˜—˜ilités — priori d—ns les im—gesF
  • 117. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xxiv ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE e(n de déterminer si le fort t—ux d9erreurs provient de ™e form—lisme de proporE tion de ˜iom—sseD nous proposons de ™onvertir les proportions de ˜iom—sses en proportion d9énergies à l9—ide de l9expression VFTF ves ™orrél—tions moyennesD pour les diérentes ™om˜in—isons sont —0™hées d—ns le t—˜le—u WFV de l9—nnexe SF xous ™onst—tonsD que les résult—ts ne sont guère —méliorésD ils sont très sem˜l—˜lesD les ™on™lusions ét—nt simil—ires à ™elles de l9—n—lyse des perform—n™es issues des proE portions de ˜iom—sseF €our illustrer ™es proposD les moyennes des ™oe0™ients de ™orrél—tion sur l9ensem˜le des ™om˜in—isons de des™ripteurs et de modèles de ™l—sE si(™—tion possi˜les sont représentés à g—u™heD d—ns l— (gure VFTF he mêmeD à droite de l— (gure VFTD l— ˜iom—sse estimée p—r espè™e est représentée pour l— méthode l— plus perform—nteD à l— fois pour le ™—s des proportions de ˜iom—sse et ™elui des proportions d9énergiesF ves résult—ts sont très simil—ires à ™eux o˜tenus pré™éE demment X ˜e—u™oup d9erreurs pour le m—quere—u et le ™hin™h—rdD moins pour l— s—rdineD et ˜onne estim—tion pour l9—n™hois et les espè™es néglige—˜lesF Figure 8.6  A gauche, comparaison entre les coecients de corrélation ob- tenus pour des probabilités de classication a priori issues des proportions de biomasses ou des proportions dénergies. A droite, biomasse estimée par lexpert et pour la méthode destimation Optimisation Kpca/Fisher, en utilisant les descripteurs de bancs de poissons seuls, et pour des probabilités de classication a priori issues des proportions de biomasses ou des proportions dénergies. RF Jeu de données incomplet. h—ns ™e ™h—pitreD l9o˜je™tif est d9—ppliquer les méE thodes d9—pprentiss—ge f—i˜lement supervisé sur un ™—s réelD m—is —ussi d9—ppliE quer les des™ripteurs glo˜—ux proposés pour ™onst—ter une —mélior—tion des perE form—n™esF ve t—˜le—u WFU de l9—nnexe S montre queD pour ™ert—ins modèles de ™l—ssi(™—tionD l9—jout de p—r—mètres des™riptifs permet d9—™™roitre les perform—n™es d9estim—tionF xot—mmentD d—ns le ™h—pitre UD nous —vons montré d9une p—rtD que les im—ge Ph sont peu inform—tives en ™omp—r—ison des données Qh @nous o˜E tenions —lors un g—in de ˜onne ™l—ssi(™—tion de IH7AD et queD d9—utre p—rtD une —n—lyse multi seuils —méliore nettement les perform—n™es de ™l—ssi(™—tion p—r r—pE
  • 118. 8.5. PERFORMANCES ™xxv port à une —n—lyse à un seul seuilF yrD pour l9expérien™e du présent ™h—pitreD les modèles de ™l—ssi(™—tion sont testés sur un jeu de données issu d9un sondeur moE nof—is™e—u et l9extr—™tion des ˜—n™s de poissons est ee™tuée pour un seul seuil d9énergieF e ™e jourD il n9existe p—s de données multif—is™e—ux qui soient tr—itées et v—lidées p—r un expertD d9—illeurs ™e type de sondeur n9est p—s utilisé d—ns le proE to™ole d9estim—tion de l— ˜iom—sseF sl le ser—F einsiD l9estim—tion de ˜iom—sse p—r des méthodes —utom—tiques de ™l—ssi(™—tion de ˜—n™s de poissons ser— nettement —méliorée si nous disposons d9im—ges Qh pour lesquelles nous ee™tuons une —n—E lyse multi seuilsF ejoutons que pour ™e jeu de donnéeD seuls les ˜—n™s de poissons sont retenus et que les zones de pl—n™ton sont 陗rtéesF yrD d—ns le ™h—pitre UD nous ™onservons toutes les —grég—tions pl—n™toniques en ™onsidér—nt qu9elles sont repréE sent—tives d9un environnement et qu9elles sont sour™es d9inform—tionsF v— prise en ™ompte du pl—n™ton permettr—it —ussi d9—méliorer l9estim—tion de l— ˜iom—sse des espè™esF in(nD lors des ™—mp—gnes de pê™hes —™oustiquesD l9expert ee™tue une préE ™l—ssi(™—tion visuelle sur l— ˜—se des o˜serv—tions —™oustiques multiEfréquentiellesF €our le m—quere—uD l— réponse —™oustique en h—utes fréquen™es est plus élevée que les —utres espè™esD ™e qui se tr—duit p—r le f—it qu9il est plus visi˜le que les —utres espè™es d—ns les im—ges fournies p—r les sondeurs de fréquen™es élevéesF v— ™l—ssiE (™—tion du m—quere—u est don™ trivi—le pour l9expertF gomme nous ne disposons p—s de ™ette inform—tion multiEfréquentiellesD le m—quere—u est di0™ile à diérenE tier des —utres espè™esF h9—illeursD le m—quere—u est l9espè™e pour l—quelle nous —vons o˜tenu les plus m—uv—is résult—ts de ™l—ssi(™—tionF ƒi nous —vions disposé de ™ette inform—tion h—ute fréquen™eD le m—quere—u —ur—it ™ert—inement pu être ™l—ssé ™onven—˜lementD et p—r ™onséquentD ™el— —ur—it permis de diminuer le ˜ruit entre espè™e et ™onduit à une meilleure estim—tion des modèles de ™l—ssi(™—tion pour les —utres espè™esF SF Approche à simplier. sl sem˜le que nous nous soyons pl—™és d—ns le ™—s le plus ™omplexeF h—ns l— méthode ™hoisie p—r l9expert ‘PIU“D ™eluiE™i p—sse p—r une ét—pe de ™l—ssi(™—tion des —grég—tions p—r espè™es ou p—r groupes d9espè™es @™fF ™h—pitre UAF gel— simpli(e le pro˜lème pour des ™hoix de ™l—ssi(™—tion di0™iles et insolu˜lesF …ne expérien™e possi˜le est de rempl—™er ™ette ét—pe de ™l—ssi(™—tion m—nuelle p—r de l— ™l—ssi(™—tion —utom—tique f—i˜lement superviséeD telle qu9il y —it des ™l—sses qui regroupent des espè™esF ges regroupements d9espè™es peuvent être dé(nis en fon™tion de leur nive—u de pro˜—˜ilitéD soit post ™l—ssi(™—tionD soit post ™h—lut—geD ou plus simplement p—r l9expertF h—ns le ™—s pr—tique d9une ™—mp—gne de pê™he —™oustiqueD ™ette ét—pe d9—utom—tis—tion est un moyen de v—liderD ou nonD le ™hoix de l9expertF TF Conversion énergie/biomasse. eprès l9ét—pe de ™l—ssi(™—tionD pour ™—l™uler l— ˜iom—sse génér—le p—r espè™eD nous —vons ™onvertie l9énergie —™oustique rétrodifE fusée de ™h—que ˜—n™ en ˜iom—sse de poissons pour ™h—que ˜—n™F €our ™el—D nous —vons supposé que les ˜—n™s de poissons sont de forme ellipsoïd—le —ve™ un di—E mètre de se™tion horizont—le ™entr—le ég—le à l9—ngle d9ouverture du f—is™e—uF gette supposition peut entr—îner des diéren™es not—˜les de ˜iom—sse p—r r—pport à l9exE pertF he mêmeD l— formule de ™onversion @™fF expression VFTA entre l9énergie et l— ˜iom—sse né™essite l— ™onn—iss—n™e de l— t—ille des poissons qui n9est p—s ex—™te ét—nt donnée l9impré™ision de l9é™h—ntillonn—geF ge p—r—mètre entr—ine —ussi une
  • 119. CHAPITRE 8. APPLICATION À LÉVALUATION DES BIOMASSES DES™xxvi ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE impré™ision d—ns l— v—leur de l— ˜iom—sseF8.6 Conclusion h—ns ™e ™h—pitreD nous —vons proposé une —ppli™—tion à l9év—lu—tion de l— ˜iom—ssede ™ert—ines espè™es h—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts de l9estim—tionsont plutôt nég—tifsF …n gr—nd nom˜re de r—isons expliquent les m—uv—is résult—tsD lesprin™ip—les ét—ntD l— ™omplexité du jeu de donnéesD l— ™onversion de l9énergie —™oustiqueen ˜iom—sseD l9—˜sen™e de données multif—is™e—ux et multiEfréquen™esD et™F hes —ppli™—tions moins périlleuses —ur—ient permis de mettre —v—nt les modèlesde ™l—ssi(™—tion proposéesF €—r exempleD l— préE™l—ssi(™—tion ee™tuée p—r les experts—v—nt l— prop—g—tion des inform—tions de proportion de ˜iom—sse peut être —utom—tiséeFgette tâ™he ser— ˜e—u™oup plus —isée ét—nt données le regroupement d9espè™e d—ns unemême ™l—sseF he plusD l— justesse des modèles de ™l—ssi(™—tion pourr—it être mise en—v—nt sur l— pro˜lém—tique de l— ™l—ssi(™—tion d9o˜jetsD ét—nt donné l— ™onn—iss—n™e del— présen™e et de l9—˜sen™e des ™l—sses d—ns les im—ges d9—pprentiss—geF
  • 120. CHAPITRE 9 Conclusion Générale h—ns ™ette thèseD nous —vons étudié un pro˜lème génér—l de ™l—ssi(™—tion pro˜—˜iEliste —utom—tiqueD puis nous nous sommes pl—™és d—ns le ™—dre —ppli™—tif de l9—™oustiqueh—lieutiqueFh—ns un premier tempsD nous —vons proposé des méthodes d9—pprentiss—ge f—i˜lementsuperviséD l9origin—lité ét—nt d9estimer les p—r—mètres d9un modèle de ™l—ssi(™—tion àp—rtir de l— seule ™onn—iss—n™e des pro˜—˜ilités de ™l—ssi(™—tion — priori des exemplesd9—pprentiss—geFh—ns un se™ond tempsD nous —vons tr—ité le ™—s de l— ™l—ssi(™—tion des ˜—n™s de poissonsd—ns des é™hogr—mmesF …n des™ripteur glo˜—l des im—ges — été proposéD et les méthodesd9—pprentiss—ge f—i˜lement supervisé ont été —ppliquées à l9év—lu—tion de l— ˜iom—ssedes espè™es h—lieutiquesF Résultats principaux. IF xous —vons dé(ni un ™—dre origin—l qui englo˜e plusieurs types d9—pprentiss—geF e notre ™onn—iss—n™eD peu de tr—v—ux présentent des modèles de ™l—ssi(™—tion qui soient tr—nsversesD l9us—ge ét—nt de préféren™e l— proposition d9un modèle p—rtiE ™ulier pour un ™ert—in type d9—pprentiss—geF einsiD le form—lisme m—thém—tique proposé permet de génér—liser l9—pprentiss—ge supervisé et semiEsuperviséF PF xous —vons suggéré des méthodes d9—pprentiss—ge pour trois modèles de ™l—ssi(E ™—tions élément—ires @un modèle génér—tifD un modèle dis™rimin—ntD et un modèle hy˜rideAD puis nous —vons étudié le ™—s des ™om˜in—isons de ™l—ssi(eursD vi— les ensem˜les de ™l—ssi(eurs et l— ™l—ssi(™—tion itér—tiveF QF v— simul—tion des jeux de données d9—pprentiss—ge nous — permis de m—itriser l— ™omplexité de l9—pprentiss—geD et —insiD d9év—luer le ™omportement dyn—mique des ™l—ssi(eursF ves résult—ts ont montré l— pertinen™e des modèles proposésD —ve™ not—mment l9emploi des pro™essus itér—tifsD qui permettentD pour ™ert—ins nive—ux de ™omplexitéD de retrouver qu—siment les mêmes résult—ts qu9en ™l—ssi(™—tion superviséF RF …n des™ripteur des —grég—tions de poissons d—ns des im—ges — été proposéF geluiE™i permet de modéliser l— distri˜ution sp—ti—le des ˜—n™s de poissons d—ns une im—geF ves résult—ts expériment—ux ont permis de v—lider leur utilis—tion qui est re™omE m—ndée pour des im—ges ™omplexes ™omme ™elles issues du sondeur multif—is™e—uxD m—is —ussiD l9étude expériment—le à montré l9—pport qu—ntit—tif d9inform—tions disE ™rimin—ntes du sondeur multif—is™e—ux rel—tivement —u sondeur monof—is™e—uF
  • 121. ™xxviii CHAPITRE 9. CONCLUSION GÉNÉRALE SF in(nD pour v—lider l9utilis—tion des modèles proposésD l9ensem˜le des propositions — été —ppliqué à l9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts expériment—ux ont montré que l9—ppro™he ˜—sée sur l— ™l—ssi(™—tion des ˜—n™s de poissons sour—it de nom˜reuses —pproxim—tions méE thodologiques et instrument—lesD et qu9en l9ét—tD l9—ppro™he glo˜—le de prop—g—tion des proportions de ˜iom—sse ét—it préfér—˜leF Qualité des résultats.xous dis™utons i™i de l— v—lidité des résult—ts et des points à —pprofondirF IF xotre o˜je™tif prin™ip—l ét—it d9o˜tenir un ™l—ssi(eur ™ompétitif qui propose les meilleures perform—n™es de ™l—ssi(™—tionF einsiD nous —vons exploré un m—ximum de form—lismes et de méthodesF gel— — été f—it —u détriment d9une —n—lyse plus —pprofondie du ™omportement des modèlesF €—r exempleD les propositions de fuE sion de pro˜—˜ilitésD vi— des sommes pondérées restent empiriquesF he mêmeD l— ™onvergen™e des pro™essus itér—tifs n9est p—s prouvéeF gepend—ntD notons que les méthodes proposées sont origin—les et prometteusesD ™ellesE™i posent les ˜—ses d9un tr—v—il qui dem—nder— plus d9—n—lyses et d9él—rgissements @™itons p—r exemple l9—pE prentiss—ge d9un —r˜re de ™l—ssi(™—tion à p—rtir de pro˜—˜ilités de ™l—ssi(™—tion qui n9—v—it j—m—is été proposéAF PF v— ™omplexité de l9—pprentiss—ge est étudiée en génér—nt —rti(™iellement des jeux de données sur l— ˜—se de proportions ™i˜les ™hoisiesF v9étude n9est p—s exh—ustiveD il f—udr—it générer ˜e—u™oup plus de ™—s p—rti™uliers et de types de proportionsD p—r exempleD nous —vons testé le ™—s d9un jeu de données d9—pprentiss—ge pour lequel toutes les ™l—sses sont équipro˜—˜lesD m—is qu9en estEil des p—ires ou des triplets de ™l—sses équipro˜—˜les c gel— permettr—it d9—ppré™ier le ™omportement des modèles d—ns le ™—s d9im—ges pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses d9o˜jets sont ™onnuesF QF ve des™ripteur proposéD qui ™—r—™térise l— distri˜ution sp—ti—le d9un pro™essus pon™E tuel m—rquéD — été testé sur un jeu de donnés limitéD ™eluiE™i ét—nt ™omposé de seuleE ment trois ™l—ssesD dont l9une est très diérente des —utres en termes de sondeF xous —vons montréD l9utilité du des™ripteur pour ™—r—™tériser ™ert—ines formes d9—grég—E tionsD m—is il est import—nt de mesurer s— ™ontri˜ution sur d9—utres ™l—sses d9espè™e etGou de distri˜utionsF gepend—ntD ™e jeu de données nous — permis de mettre en —v—nt l— for™e du sondeur multif—is™e—ux p—r r—pport —u sondeur monof—is™e—uF RF xotre o˜je™tif ét—it de proposer un des™ripteur glo˜—l pour lequel les perform—n™es de ™l—ssi(™—tion sont les meilleuresF gepend—ntD les des™ripteurs ™onsidérés n9engloE ˜—ient p—s né™ess—irement les mêmes inform—tions élément—ires @™—r—™téristiques élément—ires des ˜—n™s de poissonsD inform—tions glo˜—les sur l9im—geD et™AF he plusD une exy†e — permis de mesurer l9import—n™e de ™h—que des™ripteur éléE ment—ireD ™e qui — expliqué les perform—n™es des méthodesF einsiD il —ur—it été pertinent de ™on™lure p—r une ™omp—r—ison des méthodologies des™riptives en utiE lis—nt les mêmes inform—tions élément—iresF w—lgré toutD ™es tr—v—ux prélimin—ires sont intéress—ntsD ils proposent des ™on™lusions import—ntesD et il y — l9expression d9un p—r—mètre des™riptif origin—lF SF ves résult—ts de l9—ppli™—tion du ™h—pitre V sont mitigés et insu0s—nts pour ™on™lure que notre méthode fon™tionneF v— synthèse de l— se™tion VFSFQ donne
  • 122. ™xxix les ™on™lusions et les r—isons qui expliquent le m—nque d9ex—™titudeF gepend—ntD une —utre —ppli™—tion —ur—it été envis—ge—˜le X ™elle de l— ™l—ssi(™—tion d9o˜jet d—ns des im—ges d9—pprentiss—ge pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses est ™onnuesF in eetD nous —vons montré que notre model de ™l—ssi(™—tion peut être plus perform—nt que le model génér—tif proposé p—r fishop et …lusoy ‘ISR“D il y — don™ des ™h—n™es pour que ™ette —ppli™—tion fon™tionneF Porté des résultats.e plusieurs nive—uxD les tr—v—ux de ™ette thèse ont un fort potentiel de popul—ris—tionF IF ve form—lisme m—thém—tique qui permet de génér—liser plusieurs formes d9—pprenE tiss—ge est intéress—ntF eujourd9huiD —lors que l— pro˜lém—tique de ™l—ssi(™—tion est toujours l— mêmeD iFeF —e™ter une ™l—sse à une entitéD ˜e—u™oup de modèles sont dédiés à un pro˜lème de ™l—ssi(™—tion p—rti™ulier qui dépend du type de ™omE plexité du jeu d9—pprentiss—ge @superviséD semiEsuperviséD f—i˜lement superviséAF einsiD l9utilis—tion d9un ™l—ssi(eur n9est p—s m—ll闘leF in ™ours d9utilis—tionD si l— pro™édure de l—˜ellis—tion ™h—ngeD l9—pprentiss—ge du modèle doit ™h—ngerF in rev—n™heD le form—lisme proposé —utorise toute tr—nsvers—lité et ne ™loisonne p—s d—ns une —ppli™—tion donnée qui dépend de l— ™omplexité des jeux d9—pprentiss—geF gette proposition permet don™ d9él—rgir l— vision et devr—it intéresser l— ™ommuE n—uté s™ienti(queF PF ges résult—ts induisent de nom˜reuses —ppli™—tions possi˜lesF xous —vons proposé des modèles de fusion des pro˜—˜ilités pour l9—pprentiss—ge des p—r—mètres des modèles de ™l—ssi(™—tion élément—iresF ges fusions de pro˜—˜ilités ont permis de se pl—™er d—ns le ™ontexte de méthodes exist—ntes dont nous n9—vons p—s ™h—ngé l— théorie fond—ment—leF …ne multitude d9—utres —ppli™—tions peut être envis—géeF €—r exempleD pourquoi ne p—s tr—iter le ™—s de l9—lgorithme ƒiw ‘IU“ à l— pl—™e de l9—lgorithme iw c €ourquoi ne p—s ™hoisir une —utre méthode d9ensem˜le de ™l—ssi(eurs c yn peut im—giner une méthode ˜—sée sur ed—˜oost ‘ISU“F he mêmeD il sem˜le impér—tif de mesurer le ™omportement de tels modèles génér—ux d—ns le ™—s de l9—pprentiss—ge semiEsupervisé et d—ns ™elui des im—ges —nnotées en préE sen™eG—˜sen™eF „outes ™es —ppli™—tions ™onstituent un fort intérêt pour l— ™ommuE n—uté s™ienti(queF QF xos diverses expérien™es sur le sondeur multif—is™e—uxD nous ont permis de qu—ntiE (er l9—pport d9inform—tions dis™rimin—ntes p—r r—pport —u sondeur monof—is™e—uF yrD les org—nismes o™é—nogr—phiques intern—tion—ux utilisent très peu le sondeur multif—is™e—ux d—ns les proto™oles d9o˜serv—tion des o™é—nsF xos tr—v—ux vont don™ ™ontri˜uer à démontrer l9import—n™e de l9utilis—tion de ™et outilF €—r exempleD ™el— doit motiver d—v—nt—ge les experts à ™onsidérer le sondeur multif—is™e—ux d—ns les proto™oles d9év—lu—tion de l— ˜iom—sseF sl en est de même pour le des™ripteur d9—grég—tions proposéD dont nous —vons démontré l9utilitéD et qui peut intéresser l— ™ommun—uté des o™é—nogr—phes qui ™her™hent de nouve—ux outils de dis™rimiE n—tionF RF in —™oustique h—lieutiqueD ™es —lgorithmes d9—pprentiss—ge peuvent être utilisés plus simplementF xous n9—vons p—s réussi à o˜tenir les résult—ts es™omptés pour l9év—lu—tion de l— ˜iom—sseF gepend—ntD pour un jeu de données moins ™omplexes @hSAD les résult—ts ét—ient s—tisf—is—ntsF ves —lgorithmes d9—pprentiss—ge devr—ient
  • 123. ™xxx CHAPITRE 9. CONCLUSION GÉNÉRALE Figure 9.1  En classication automatique, un modèle de régression peut être utilisé pour passer de lespace des descripteurs à lespace des probabilités. don™ intéresser l— ™ommun—uté des s™ienti(ques o™é—nogr—phes en vue d9une préE ™l—ssi(™—tionD ™omme ™el— est ee™tué pour l9év—lu—tion de l— ˜iom—sse p—r les expertsF ves jeux de données sont plus simples ™—r ™ert—ines ™l—sses sont ™omposées du regroupement de ™ert—ines espè™esF Futurs travaux.…n ™ert—ins nom˜res de futurs tr—v—ux sont envis—ge—˜lesF IF in termes de nouve—ux modèles de ™l—ssi(™—tionD il sem˜le essentiel de proposer une méthode d9—pprentiss—ge f—i˜lement supervisé pour les ƒ†wF ves m—™hines à ve™teurs de supports ont prouvé leur supériorité pour ˜e—u™oup de jeux de donE néesD et ils sont souvent utilisés de m—nière systém—tique pour des pro˜lèmes de ™l—ssi(™—tion élément—ires ‘PPT“F xous —vons ™on™entré nos eorts sur les forêts —lé—toires pour lesquelles nous o˜tenions les meilleures perform—n™es de ™l—ssi(™—E tion supervisée pour un jeu de ˜—n™s de poissons @hSAD m—is il est indispens—˜le de proposer une version f—i˜lement supervisée des ƒ†wF ƒ—ns ™el—D ™es tr—v—ux restent in™ompletsF PF ges dernières —nnéesD les modèles de régression ont ˜e—u™oup été utilisés d—ns le dom—ine de l— vision p—r ordin—teur @segment—tion ‘PPU“D estim—tion de l— pose d9un individus ‘PPV“D ™orrespond—n™e de points d9un o˜jet entre im—ges ‘PPW“D lo™—lis—tion d9o˜jets ‘PQH“D et™AF sl ser—it intéress—nt de développer des modèles de ™l—ssi(™—tion —utom—tique fondés sur l9utilis—tion des modèles de régressionF v9idée est que l— fon™tion de régression permette de p—sser dire™tement de l9esp—™e des des™ripteurs à l9esp—™e des pro˜—˜ilitésF ve ™on™ept est représentée d—ns l— (gure WFID l9o˜je™tif est de sép—rer les los—ngesD les étoilesD et les points noirsD pour ™el—D à ™h—que point de l9esp—™e des des™ripteursD ™orrespond un point de l9esp—™e des pro˜—˜ilités de ™l—ssi(™—tionD ™9est ˜ien un pro˜lème de régressionF QF h9—utres te™hniques de des™ription des —grég—tions peuvent être proposéesF €—r exempleD d—ns l— ™ontinuité des tr—v—ux ee™tués d—ns ™ette thèseD il ser—it intéE
  • 124. ™xxxiress—nt de tr—iter des modèles qui ™onjuguent à l— fois des —spe™ts lo™—ux @liés —ux™—r—™téristiques de ™h—que ˜—n™sA et glo˜—ux @liés à l9org—nis—tion des ˜—n™s depoissons d—ns l9im—geAF h—ns un p—pier ‘PQI“D les —uteurs proposent de ™om˜inerles des™ripteurs lo™—ux des régions d9une im—ge et des des™ripteurs glo˜—ux quidé™rivent le poids des régions d—ns l9im—geF gette idée peut être étendue —u ™—sdes —grég—tions de poissons en ™onsidér—nt qu9une région de l9esp—™e est un ˜—n™de poissonsF v9inform—tion glo˜—leD —lors modélisée p—r l9in)uen™e de ™h—que ˜—n™d—ns l9im—geD peut être ™omplétée p—r des gr—phes de simil—rités qui représenteEr—ient l9org—nis—tion sp—ti—le des ˜—n™s les uns p—r r—pport —ux —utresF
  • 125. Troisième partieAnnexes et Bibliographie
  • 126. Annexe 1 : Etude des paramètres des modèles de classication M 1 2 3 4 5 D1 HFVQ HFVQ HFVQ HFVQ HFVQ D2 HFWQ HFWP HFWP HFWP HFWR D3 HFTW HFUR HFVI HFVQ HFUU D4 HFUV HFVQ HFUW HFVH HFVP D5 HFTS HFTS HFTS HFTS HFTS Moyenne HFUU HFUW HFVH HFVH HFVHTableau 9.1  Performance de classication supervisée en fonction du para-mètre M (équation 3.1), le nombre de modes dans le mélange de Gaussiennes pour le modèle génératif. N pca 10 20 30 40 50 D1 HFVI HFVW HFVW HFVW HFWH D2 HFWS HFWS HFWP HFWH HFVW D3 HFRT HFSU HFTW HFTU HFUV D4 HFVT HFVT HFVQ HFVU HFVS D5 HFTT HFTV HFTW HFTW HFTW Moyenne HFUR HFUW HFVH HFVH HFVPTableau 9.2  Performance de classication supervisée en fonction du para-mètre N pca, la dimension de lespace obtenu à laide du noyau Gaussien pour la méthode K-pca (page xxxvi).
  • 127. ANNEXE 1 :™xxxvi ETUDE DES PARAMÈTRES DES MODÈLES DE CLASSIFICATION σ2 0.1 0.5 1 5 10 D1 HFPS HFUH HFVQ HFWH HFWH D2 HFUQ HFWP HFWR HFVW HFVW D3 HFVR HFTQ HFUH HFUV HFTV D4 HFQQ HFRQ HFUP HFVS HFVU D5 HFPW HFSQ HFTT HFTW HFUH Moyenne HFRV HFTR HFUU HFVP HFVH Tableau 9.3  Performance de classication supervisée en fonction du para- mètre σ2 , le paramètre déchelle du noyau Gaussien pour le modèle discriminant (page xxxvi). T 1 100 200 300 400 D1 HFWH HFWT HFWT HFWT HFWT D2 HFWR HFWQ HFWU HFWQ HFWQ D3 I I I I I D4 HFTS HFVP HFUW HFUV HFVH D5 HFVI HFWH HFWH HFVW HFVW Moyenne HFVT HFWP HFWP HFWI HFWI Tableau 9.4  Performance de classication supervisée en fonction du pa- ramètre T (équation 4.1), le nombre darbres de classication considérés dans une forêt aléatoire. Pour cette expérience, la proportion dexemples utilisés pour lapprentissage dun arbre dune forêt aléatoire, relativement à lensemble dap- prentissage initiale (cf. section 4.2.2), est de 0.8. Proportion dexemples dapprentissage pour 0.5 0.6 0.7 0.8 0.9 1 pour un arbre dune forêt D1 HFWS HFWS HFWS HFWT HFWS HFWP D2 HFWP HFWP HFWQ HFWU HFWP HFWP D3 I I I I I I D4 HFVT HFVI HFVP HFUW HFVH HFTV D5 HFVW HFVW HFWH HFWH HFVW HFVR Moyenne HFWP HFWI HFWP HFWP HFWI HFVU Tableau 9.5  Performance de classication supervisée en fonction de la proportion dexemples utilisés pour lapprentissage dun arbre de classication dune forêt aléatoire (cf. section 4.2.2). Pour cette expérience, T = 100.
  • 128. ANNEXE 1 :ETUDE DES PARAMÈTRES DES MODÈLES DE CLASSIFICATION ™xxxvii α(3 classes) 0.1 0.4 1 3 8 D1 HFWP HFWI HFWI HFWH HFWI D2 HFUW HFVH HFVI HFVP HFVP D3 HFVT HFVU HFVW HFWR HFWI D4 HFUS HFUQ HFVI HFUU HFUU D5 HFUP HFTW HFTV HFUI HFUQ Moyenne HFVH HFVH HFVP HFVP HFVP Tableau 9.6  Performance de classication faiblement supervisée en fonction du paramètre α (équations (3.54) et (3.55)), le coecient de pondération pour le calcul de lentropie en chaque noeud des arbres de classication. Pour chaque observation de lensemble dapprentissage faiblement annoté, trois classes sont probables (cf. section 5.4.3).
  • 129. Annexe 2 : Probabilités a priori des données dapprentissage pour diérents niveaux de complexité ixemple de proportions ™i˜les pour un jeu de données qui ™ontient R ™l—ssesF €luEsieurs nive—ux de ™omplexités sont générésD i™i le nive—u de ™omplexité est dé(ni p—r lenive—u de ˜ruit qui est rel—tif à l— v—leur des pro˜—˜ilités — prioriF ves données généréesvont du ™—s de l9—pprentiss—ge supervisé —u ™—s équipro˜—˜leD en p—ss—nt p—r deux ™—sd9—pprentiss—ge f—i˜lement superviséD l9un ét—nt moins ™omplexe que l9—utreF h—ns le ™—s de l9—pprentiss—ge superviséD les proportions ™i˜les sont X         1 0 0 0 0  1  0  0         0  0  1  0 0 0 0 1 h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @IAD les proportions ™i˜les sont X         0.7 0.1 0.1 0.1 0.1 0.7 0.1 0.1         0.1 0.1 0.7 0.1 0.1 0.1 0.1 0.7 h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @PAD les proportions ™i˜les sont X                         0.5 0.1 0.1 0.3 0.5 0.3 0.1 0.1 0.5 0.1 0.3 0.1 0.3 0.5 0.1 0.1 0.1 0.5 0.3 0.1 0.1 0.5 0.1 0.3                         0.1 0.3 0.5 0.1 0.1 0.1 0.5 0.3 0.3 0.1 0.5 0.1 0.1 0.1 0.3 0.5 0.3 0.1 0.1 0.5 0.1 0.3 0.1 0.5 h—ns le ™—s équipro˜—˜leD les proportions ™i˜les sont X   0.25 0.25   0.25 0.25
  • 130. Annexe 3 : Probabilités a priori des données dapprentissage en fonction du nombre de classes par mélanges ixemple de proportions ™i˜les pour un jeu de données qui ™ontient R ™l—ssesF €luEsieurs nive—ux de ™omplexités sont générésD i™i le nive—u de ™omplexité est dé(ni p—r lenom˜re de ™l—sses pro˜—˜les d—ns les mél—ngesD tel que le nive—u de ˜ruit rel—tif à l—v—leur des pro˜—˜ilités — priori soit très v—ri—˜le d9un exemple à l9—utreF h—ns le ™—s d9un mél—nge à I ™l—sseD les proportions ™i˜les sont X         1 0 0 0 0  1  0  0         0  0  1  0 0 0 0 1 h—ns le ™—s d9un mél—nge à P ™l—ssesD les proportions ™i˜les sont X                                0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4 0 0 0 00.1 0.9 0.4 0.6  0   0   0   0   0   0   0              0  0.9 0.1 0.6 0.4                     0   0   0   0  0.1 0.9 0.4 0.6  0   0   0   0  0.1 0.9 0.4 0.6 0 0 0 0 0 0 0 0 0.1 0.9 0.4 0.6 0 0 0 0                 0 0 0 0 0 0 0 0 0.9 0.1 0.6 0.4  0   0   0   0                   0   0   0   0  0.9 0.1 0.6 0.6 0.1 0.9 0.4 0.6 0.1 0.9 0.4 0.4 h—ns le ™—s d9un mél—nge à Q ™l—ssesD les proportions ™i˜les sont X                             0.9 0.05 0.05 0.4 0.3 0.3 0.9 0.05 0.05 0.4 0.3 0.3 0.9 0.05 0.05  0.9  0.05 0.3 0.4 0.3  0   0   0   0   0   0  0.05  0.9                              0.05 0.05  0.9  0.3 0.3 0.4 0.05  0.9  0.05 0.3 0.4 0.3  0   0  0 0 0 0 0 0 0.05 0.05 0.9 0.3 0.3 0.4 0.05 0.05                     0.05 0.4 0.3 0.3 0 0 0 0 0 0 0.05 0.3 0.4 0.3  0.9  0.05 0.05 0.4 0.3 0.3                      0   0   0   0  0.05  0.9  0.05 0.3 0.4 0.3 0.9 0.3 0.3 0.4 0.05 0.05 0.9 0.3 0.3 0.4 h—ns le ™—s d9un mél—nge à R ™l—ssesD les proportions ™i˜les sont X
  • 131. ANNEXE 3 : PROBABILITÉS e €‚sy‚s DES DONNÉES DAPPRENTISSAGE EN™xlii FONCTION DU NOMBRE DE CLASSES PAR MÉLANGES                         0.85 0.05 0.05 0.05 0.4 0.2 0.2 0.2 0.4 0.3 0.2 0.1 0.05 0.85 0.05 0.05 0.2 0.4 0.2 0.2 0.1 0.4 0.3 0.2                         0.05 0.05 0.85 0.05 0.2 0.2 0.4 0.2 0.2 0.1 0.4 0.3 0.05 0.05 0.05 0.85 0.2 0.2 0.2 0.4 0.3 0.2 0.1 0.4
  • 132. Annexe 4 : Charactéristiques des chalutages. h—ns un premier tempsD nous tr—çons les ˜iom—sses p—r espè™e en fon™tion de l9inEdi™e du ™h—lut—geD et les proportions de ˜iom—sse p—r espè™e en fon™tion de l9indi™edu ™h—lut—geF €uisD nous tr—çons le nom˜re de ˜—n™s de poissons d—ns une im—ge enfon™tion de l9indi™e du ™h—lut—geF Figure 9.2  Biomasse de Sardine en fonction du chalutage et probabilité a priori de la sardine dans les images de chalutage.
  • 133. ANNEXE 4 :™xliv CHARACTÉRISTIQUES DES CHALUTAGES. Figure 9.3  Biomasse de Chinchard en fonction du chalutage et probabilité a priori de la Chinchard dans les images de chalutage. Figure 9.4  Biomasse de Maquereau en fonction du chalutage et probabilité a priori de la Maquereau dans les images de chalutage.
  • 134. ANNEXE 4 :CHARACTÉRISTIQUES DES CHALUTAGES. ™xlv Figure 9.5  Biomasse de Anchois en fonction du chalutage et probabilité a priori de la Anchois dans les images de chalutage. Figure 9.6  Biomasse despèce négligeable en fonction du chalutage et pro- babilité a priori de lespèce négligeable dans les images de chalutage.
  • 135. ANNEXE 4 :™xlvi CHARACTÉRISTIQUES DES CHALUTAGES. Figure 9.7  Quantité de bancs de poissons en fonction de lindice du chalu- tage.
  • 136. Annexe 5 :Corrélation entrelévaluation de biomassede lexpert et desalgorithmes.
  • 137. ANNEXE 5 : ALUATION DE BIOMASSE DE LEXPERT ET DES ALGORITHMES. Soft Hard Cood. Bur- Ri- Géné- Optimi- Kpca/ FA FA+ FA+ Moyenne géogra- gos pley ratif sation Fisher Fisher Ité- phiques Kpca/ ratif Fisher 1 0 0 0 0 HFRVP HFSHV HFRTQ HFRWV HFSIQ HFRWQ 0.492 1 0 0 0 1 HFRTW HFSIT HFRVI HFRVR HFRTU HFRUW 0.482 1 0 0 1 0 HFRUP HFSHQ HFRWS HFRWS HFRWV HFRTR 0.487 1 0 0 1 1 HFRVR HFSIT HFRVW HFRUS HFRTR 0.521 0.491 1 0 1 0 0 HFRTU HFSIP HFRWR HFRVV HFRVQ HFRTR 0.484 1 0 1 0 1 HFRVR HFSIW HFRUP HFRTS HFRVS HFRSV 0.480 1 0 1 1 0 HFRUP HFSHP HFSHH HFRTI HFRVH HFRTI 0.479 1 0 1 1 1 HFRVR HFSIQ HFRVR HFRTT HFRWI HFRSV 0.482 Moyenne 0.476 0.511 0.484 0.479 0.485 0.474 HFRVR 0 1 0 0 0 HFRPW 0.526 HFRRI HFRSW0.463 HFRSW HFRTU 0 1 0 0 1 HFRUW HFSPI HFRUT HFSHH0.486 HFRUV HFRTT 0 1 0 1 0 HFQWI HFSHW HFSHU HFRRU0.459 HFRST HFRRW 0 1 0 1 1 HFRUS HFSHT HFSHS HFRUT0.481 HFRTU HFRTH 0 1 1 0 0 HFRSW HFSII HFSHT HFRTP0.470 HFRRW HFRQS 0 1 1 0 1 HFRVH HFRWR HFRWS HFRPS0.464 HFRTH HFRQQ 0 1 1 1 0 HFQWP HFRWU HFRWT HFRQI0.443 HFRPS HFRPP CORRÉLATION ENTRE LÉV 0 1 1 1 1 HFRUU HFRWT HFSHR HFRPS0.469 HFRSV HFRSS Moyenne 0.447 0.507 0.491 0.453 0.456 0.448 HFRTT Tableau 9.7  Pour des probabilités a priori de classication issus dune pro- portion de biomasse, les Coecients de corrélation moyens (cf. équation (8.17)) sont achés pour un calcul " souple " ou " dur " de la biomasse (cf. équa- tions (8.8) et (8.7)), pour diérentes combinaisons de descripteurs, et pour plusieurs classieurs. La corrélation représente la similarité entre lestimation de biomasse de lexpert et celle déterminée de manière algorithmique. Plus cette corrélation est élevée, plus lestimation est similaire. ™xlviii
  • 138. Soft Hard Cood. Bur- Ri- Géné- Optimi- Kpca/ FA FA+ FA+ Moyenne ANNEXE 5 : géogra- gos pley ratif sation Fisher Fisher Ité- phiques Kpca/ ratif Fisher1 0 0 0 0 HFRST HFSIT HFRUT HFRWV HFRVW HFSHH 0.4891 0 0 0 1 HFRVW 0.517 HFRWS HFRTR HFRTW HFRVV 0.487 DES ALGORITHMES.1 0 0 1 0 HFRUQ HFSHV HFRVT HFRTV HFRUV HFRST 0.4781 0 0 1 1 HFRUS HFSIR HFSHH HFRTH HFRTW HFRUT 0.4821 0 1 0 0 HFRSI HFSIS HFRVV HFSHP HFRWR HFRWS 0.4901 0 1 0 1 HFRVH HFSIH HFRVP HFRWT HFRWT HFRWQ 0.492 CORRÉLATION ENTRE LÉV1 0 1 1 0 HFRUU HFSHV HFSHP HFSHI HFRUW HFRVP 0.4911 0 1 1 1 HFRUI HFSIS HFRVV HFSHP HFRWR HFRWS 0.494 Moyenne 0.471 0.512 0.489 0.486 0.483 0.4850 1 0 0 0 HFRQQ 0.513 HFSIQ HFRQI HFRST HFRVT 0.4720 1 0 0 1 HFRVI HFSHR HFRWH HFRIT HFRTT HFRRR 0.4660 1 0 1 0 HFRSI HFRVV HFSHH HFRRQ HFRUH HFRHH 0.4580 1 0 1 1 HFRUS HFSHR HFSHS HFRHP HFRUT HFRQQ 0.4650 1 1 0 0 HFQVV HFRVT HFRWQ HFRUQ HFRUW HFRTQ 0.4630 1 1 0 1 HFRUT HFRWQ HFRUR HFRPT HFRVT HFRTI 0.4960 1 1 1 0 HFRSS HFRWH HFRWI HFRTW HFRRH HFRRS 0.4650 1 1 1 1 HFRVR HFRVT HFRWQ HFRUQ HFRUW HFRTQ 0.479 Moyenne 0.455 0.495 0.494 0.441 0.469 0.449 Tableau 9.8  Pour des probabilités a priori de classication issus dune pro- portion dénergie, les Coecients de corrélation moyens (cf. équation (8.17)) sont achés pour un calcul " souple " ou " dur " de la biomasse (cf. équa- tions (8.8) et (8.7)), pour diérentes combinaisons de descripteurs, et pour plusieurs classieurs. La corrélation représente la similarité entre lestimation de biomasse de lexpert et celle déterminée de manière algorithmique. Plus cette corrélation est élevée, plus lestimation est similaire. ALUATION DE BIOMASSE DE LEXPERT ET ™xlix
  • 139. Bibliographie ‘I“ qF ƒh—ferD e m—them—ti™—l theory of eviden™eF €rin™eton …niversity €ressD IWUTF ‘P“ sF …lusoy —nd gF fishopD qener—tive versus dis™rimin—tive methods for o˜je™t re™ognitionD €ro™eedings of the PHHS Iiii gomputer ƒo™iety gonferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF PSV!PTSD PHHSF ¶ ‘Q“ yF gh—pelleD fF ƒ™hà lkopfD —nd eF ienD ƒemiEsupervised le—rningF ws„ €ressD PHHTF ‘R“ iF idgeworthD yn the pro˜—le errors of frequen™yE™onst—ntsD tourn—l of the roy—l st—tisti™ so™ietyD volF UID noF QD ppF RWW!SIPD IWHVF ‘S“ ""D yn the pro˜—le errors of frequen™yE™onst—ntsD tourn—l of the roy—l st—tisti™ so™ietyD volF UID noF RD ppF RWW!SIPD IWHVF ‘T“ vF ƒ—v—geD yn rere—ding rF—F (sherD „he enn—ls of ƒt—tisti™sD volF RD noF QD ppF RRI!SHHD IWUTF ‘U“ tF €r—ttD pFyF edgeworth —nd rF—F (sher on the e0™ien™y of m—ximum likelihood estim—tionD „he enn—ls of ƒt—tisti™sD volF RD noF QD ppF SHI!SIRD IWUTF ‘V“ ƒF ƒtiglerD pr—n™is ysidro edgeworthD st—tisti™i—nD tourn—l of the roy—l st—tisti™ so™ietyD volF IRID noF QD IWUVF ‘W“ ""D „he history of st—tisti™s X the me—surement of un™ert—inty ˜efore IWHHD r—rv—rd …niversity €ressD IWVTF‘IH“ ""D ƒt—tisti™s on the t—˜le X the history of st—tisti™—l ™on™epts —nd methodsD r—rv—rd …niversity €ressD IWWWF‘II“ eF r—ldD e history of m—them—ti™—l st—tisti™s from IUSH to IWQHF ‡ileyD IWWVF‘IP“ ""D yn the history of m—ximum likelihood in rel—tion to inverse pro˜—˜ility —nd le—st squ—resD ƒt—tisti™—l ƒ™ien™eD volF IRD noF PD IWWWF‘IQ“ tF eldri™hD ‚F—F (sher —nd the m—king of m—ximum likelihoodD ƒt—tisti™—l ƒ™ien™eD volF IPD noF QD ppF ITP!IUTD IWWUF‘IR“ eF hempsterD xF v—irdD —nd hF ‚u˜inD w—ximum likelihood from in™omplete d—t— vi— the em —lgorithmD tourn—l of the roy—l st—tisti™ so™ietyD volF QWD ƒeries fD noF ID ppF I!QVD IWUUF‘IS“ ‚F xe—l —nd qF rintonD e view of the iw —lgorithm th—t justi(es in™rement—lD sp—rse —nd other v—ri—ntsF uluwer e™—demi™ €u˜lishersD IWWVF‘IT“ qF w™ v—™hl—n —nd „F urishn—nD „he iw —lgorithm —nd extentionsF ‡ileyD IWWUF
  • 140. ™lii BIBLIOGRAPHIE ‘IU“ qF geleux —nd hF hie˜oltD „he sem —lgorithm X — pro˜—˜ilisti™ te—™her —lgorithm derived from the em —lgorithm for the mixture pro˜lemF gomput—tion—l ƒt—tisti™s u—rterlyD volF PD noF ID ppF UQ!VPD IWVSF ‘IV“ wF t—mshidi—n —nd ‚F tennri™hD gonjug—te gr—dient —™™eler—tion of the em —lE gorithmD tourn—l of the emeri™—n ƒt—tisti™i—l —sso™i—tionD volF VVD ppF PPI!PPVD IWWQF ‘IW“ ""D u—siEnewton —™™eler—tion of the em —lgorithmD tourn—l of the roy—l st—E tisti™ so™ietyD volF SW@fAD ppF STW!SVUD IWWUF ‘PH“ ˆFEvF weng —nd hF ‚u˜inD w—ximum likelihood estim—tion vi— the e™m —lgoE rithm X e gener—l fr—meworkD fiometrik—D volF VHD noF PD ppF PTU!PUVD IWWQF ‘PI“ wF w—ronD eutom—ti™ indexing X —nexperiment—l inquiryD tourn—l of the essoE ™i—tion for gomputing w—™hineryD volF VD noF QD ppF RHR!RIUD IWTIF ‘PP“ €F homingos —nd wF €—zz—niD yn the optim—lity of the simple ˜yesi—n ™l—ssi(er under zeroEone lossD w—™hine ve—rningD volF PWD ppF IHQ!IQUD IWWUF ‘PQ“ hF r—nd —nd uF ‰uD sdiot9s ˜—yes E not so stupid —fter —ll c sntern—tion—l ƒt—E tisti™—l ‚eviewD volF TWD noF QD ppF QVS!QWWD PHHIF ‘PR“ €F uotsi—ntis —nd €F €intel—sD vogit˜oost of simple ˜—yesi—n ™l—ssi(erD gomE put—tion—l sntelligen™e in h—t— mining ƒpe™i—l sssue of the snform—ti™— tourn—lD volF PWD noF ID ppF SQ!SWD PHHSF ‘PS“ tF xeville —nd hF tensenD ster—tive ™l—ssi(™—tion in rel—tion—l d—t—D eees workE shop on le—rning stitisti™—l models from rel—tion—l d—t—D ppF RP!RWD PHHHF ‘PT“ qF tohn —nd €F v—ndleyD istim—ting ™ontinuous distri˜utions in ˜—yesi—n ™l—ssiE (ersD €ro™eedings of the IIth gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD ppF QQV!QRSD IWWSF ‘PU“ qF ‡e˜˜D tF foughtonD —nd F ‡—ngD xot so n—ive ˜—yes X —ggreg—ting oneE dependen™e estim—torsD w—™hine ve—rningD volF SVD noF ID ppF S!PRD PHHSF ‘PV“ hF fleiD eF xgD —nd wF tord—nD v—tent diri™hlet —llo™—tionD tourn—l of w—™hine ve—rning ‚ese—r™hD volF QD ppF WWQ!IHPPD PHHQF ‘PW“ „F rofm—nnD €ro˜—˜ilisti™ l—tent sem—nti™ intexingD €ro™eedings of the twentyE se™ond —nnu—l intern—tion—l ƒsqs‚ ™onferen™e on rese—r™h —nd development in inform—tion retrievi—lD IWWWF ‘QH“ „F qri0ths —nd wF ƒteyversD pinding s™ienti(™ topi™sD €ro™eedings of the n—E tion—l —™—demy of s™ien™esD volF IHID ppF SPPV!SPQSD PHHRF ‘QI“ „F wink— —nd tF v—ertyD ixpe™t—tionEprop—g—tion for the gener—tive —spe™t moE delD €ro™eedings of the IIth gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD PHHPF © © © © ‘QP“ †F †—ndew—lleD ƒÃ le™tion prà di™tive d9un modäle gà nà r—tif p—r le © ™ritäre —i™pD RIäme tournà e de ƒt—tistiqueD snri—D forde—uD PHHWF ‘QQ“ wF ƒtoneD grossEv—lid—tion ™hoi™e —nd —ssessment of st—tisti™—l predi™tionsD tourn—l of the roy—l st—tisti™ so™ietyD volF QTD ppF III!IRUD IWURF ‘QR“ rF ek—ikeD snform—tion theory —nd —n extension of the m—ximum likelihood prin™ipleD Pnd sntern—tion—l ƒymposium on snform—tion „heoryD ppF PT!PVID IWURF
  • 141. BIBLIOGRAPHIE ™liii‘QS“ qF ƒ™hw—rzD istim—ting the dimension of — modelD enn—ls of ƒt—tisti™sD volF TD noF PD ppF RTI!RTRD IWUVF‘QT“ ‚F pisherD „he use of multiple me—surements in t—xonomi™ pro˜lemsD enn—ls of iugeni™sD ppF IUW!IVVD IWQTF‘QU“ ‚F hu˜—D €F r—rtD —nd hF ƒtorkD €—ttern ™l—ssi(™—tionF ‡iley snters™ien™eD PHHHF‘QV“ qF w™v—™hl—nD his™rimin—nt —n—lysis —nd st—tisti™—l p—ttern re™ognitionF ‡iley snters™ien™eD PHHRF‘QW“ fF foserD sF quyonD —nd †F †—pnikD e tr—ining —lgorithm for optim—l m—rgin ™l—ssi(erD pifth ennu—l ‡orkshop on gomput—tion—l ve—rning „heoryD ppF IRR! ISPD IWWPF‘RH“ †F †—pnikD „he n—ture of st—tisti™—l le—rning theoryF xE‰ X ƒpringerE†erl—gD IWWSF‘RI“ †F †—pnik —nd eF vernerD €—ttern re™ognition using gener—lized portr—it meE thodD eutom—tion —nd ‚emote gontrolD volF PRD ppF UUR!UVHD IWTQF‘RP“ ‚F hud— —nd €F r—rtD €—ttern ™l—ssi(™—tion —nd s™ene —n—lysisF ‡ileyD IWUQF‘RQ“ tF wer™erD pun™tions of positive —nd neg—tive type —nd their ™onne™tion with the theory of integr—l —qu—tionsD tourn—l of ‚oy—l ƒo™iety vondonD volF PHWD ppF RIS!RRTD IWHWF‘RR“ wF eizerm—nD iF fr—verm—nD —nd vF ‚ozonoerD „heoreti™—l found—tions of the potenti—l fun™tion method in p—ttern re™ognition le—rningD eutom—tion —nd ‚eE mote gontrolD volF PSD ppF VPI!VQUD IWTRF‘RS“ gF gortes —nd †F †—pnikD ƒupportEve™tor networkD w—™hine ve—rningD volF PHD ppF PUQ!PWUD IWWSF ¶‘RT“ fF ƒ™hà lkopf —nd eF ƒmol—D ve—rning with uernelsF „he ws„ €ressD PHHPF‘RU“ tF ferksonD eppli™—tion of the logisti™ fun™tion to ˜ioE—ss—yD tourn—l of the emeri™—n ƒt—tisti™—l esso™i—tionD volF QWD ppF QSU!QTSD IWRRF‘RV“ ""D w—ximum likelihood —nd minimum χ2 Eestim—tes of the logisti™ fun™tionD tourn—l of the emeri™—n ƒt—tisti™—l esso™i—tionD volF SHD ppF IQH!ITPD IWSSF‘RW“ „F ememiy—D u—lit—tive response models X — surveyD tourn—l of i™onomi™ liter—tureD volF IWD ppF IRVQ!ISQTD IWVIF‘SH“ tF ril˜eD vogisti™ regression modelsF gh—pm—n —nd r—llGg‚g €ressD PHHWF‘SI“ gF fishopD €—ttern re™ognition —nd m—™hine le—rningF ƒpringerD PHHTF‘SP“ „F hietteri™h —nd qF f—kiriD ƒolving multi™l—ss le—rning pro˜lems vi— errorE ™orre™ting output ™odesD tourn—l of erti(™i—l sntelligen™eD volF PD ppF PTQ!PVTD IWWSF‘SQ“ uF gr—mer —nd ‰F ƒingerD yn the —lgorithmi™ implement—tion of multi™l—ss kernelE˜—sed ve™tor m—™hinesD tourn—l of w—™hine ve—rning ‚ese—r™hD volF PD ppF PTS!PWPD PHHIF ¶‘SR“ fF ƒ™hà lkopfD eF ƒmol—D —nd uF wullerD uernel prin™ip—l —n—lysisD edv—n™es in uernel wethodsEƒupport †e™tor ve—rningD ws„ €ressD ppF QPU!QSPD IWWWF‘SS“ fF ƒ™hölkopfD eF ƒmol—D —nd uFE‚F wüllerD xonline—r ™omponent —n—lysis —s — kernel eigenv—lue pro˜lemD xeur—l gomput—tionD volF IHD ppF IPWW!IQIWD IWWVF
  • 142. ™liv BIBLIOGRAPHIE ‘ST“ uF €e—rsonD yn lines —nd pl—nes of ™losest (t to systems of points in sp—™eD €hilosophi™—l w—g—zineD volF PD noF TD ppF SSW!SUPD IWHIF © ‘SU“ ‰F ve gunD …ne pro™Ã dure d9—pprentiss—ge pour rà ©se—u à seuil © —symà triqueD gognitiv—VSD IWVSF ‘SV“ hF ‚umelh—rtD €—r—llel distri˜uted pro™essing X explor—tion in the mi™rostru™ture of ™ognitionF ws„ €ressD IWVTF ‘SW“ tF enderson —nd iF ‚osenfeldD xeuro ™omputing fund—tions of rese—r™hF ws„ €ressD IWVVF ‘TH“ ‰F ve gunD tF henkerD —nd ƒF ƒoll—D yptim—l ˜r—in d—m—geD €ro™eedings of the xeur—l snform—tion €ro™eeding ƒystemsEPD ppF SWV!THSD IWWHF ‘TI“ fF r—ssi˜i —nd hF ƒtorkD edv—n™es in neur—l inform—tion pro™essing systemsD ƒFtF r—nsonD tFhF gow—n —nd gFvF qilles @iditionsAD volF SD pF ITRD IWWQF ‘TP“ „F goverD xe—rest neigh˜or p—ttern ™l—ssi(™—tionD „r—ns—™tions on snform—tion theoryD volF IQD noF ID ppF PI!PUD IWTUF ‘TQ“ iF hez— —nd wF hez—D hi™tion—ry of dist—n™esF ilsevierD PHHTF ‘TR“ eF fh—tt—™h—ryy—D yn — me—sure of divergen™e ˜etween two st—tisti™—l popul—E tions de(ned ˜y pro˜—˜ility distri˜utionsD fullF g—l™utt— w—thsF ƒo™FD volF QSD ppF WW!IHWD IWRQF ‘TS“ ƒF uull˜—™kD vetter to the editor X „he kull˜—™kElei˜ler dist—n™eD „he emeri™—n ƒt—tisti™i—nD volF RID noF RD ppF QRH!QRID IWVUF ‘TT“ tF fentleyD wultidimention—l ˜in—ry se—r™h trees used for —sso™i—tive se—r™hingD gommuni™—tion on the esso™i—tion for gomputing w—™hineryD volF IVD noF WD ppF SHW!SIUD IWUSF ‘TU“ „F ƒeidl —nd rF uriegelD yptim—l multiEstep kEne—rest neigh˜or se—r™hD snterE n—tion—l gonferen™e on w—n—gement of h—t—D ppF ISR!ITSD IWWVF ‘TV“ vF freim—nD tF priedm—nD ‚F ylshenD —nd gF ƒtoneD gl—ssi(™—tion —nd regression treesF gh—pm—n 8 r—llFD IWVRF ‘TW“ tF uinl—nD sndu™tion of de™ision treesD w—™hine ve—rningD volF ID noF ID ppF VI!IHTD IWVTF ‘UH“ ""D gRFS X €rogr—ms for m—™hine le—rningD worg—n u—ufm—nn €u˜lishersD IWWQF ‘UI“ qF u—ssD en explor—tory te™hnique for invesg—ting l—rge qu—ntities of ™—tegori™—l d—t—D tourn—l of —pplied st—tisti™sD volF PWD noF PD ppF IIW!IPUD IWVHF ‘UP“ ‡FE‰F voh —nd ‰FE‰F ƒhihD ƒplit sele™tion methods for ™l—ssi(™—tion treesD ƒt—E tisti™— ƒini™—D volF UD ppF VIS!VRHD IWWUF ‘UQ“ rF veveneD ‚o˜ust tests for equ—lity of v—ri—n™esD ƒt—nford …niversity €ressF gontri˜utions to pro˜—˜ility —nd ƒt—tisti™s X iss—ys in ronor of r—rold rotellingD ppF PUV!PWPD IWTHF ‘UR“ ƒF wurthyD ƒF u—sifD —nd ƒF ƒ—lz˜ergD e system for indu™tion of o˜lique treesD tourn—l of erti(™i—l sntelligen™e ‚ese—r™hD volF PD ppF I!QPD IWWRF
  • 143. BIBLIOGRAPHIE ™lv‘US“ uF fennet —nd „F flueD e support ve™tor m—™hine —ppro—™h to de™ision treesD siii sntern—tion—l toint gonferen™e on xeur—l xetworks €ro™eedings siii ‡orld gongress on gomput—tion—l sntelligen™eD volF PD ppF VVH!VVRD IWWVF‘UT“ ‡F ‡uD xF fennetD xF gristi—niniD —nd tF ƒh—weE„—ylorD v—rge m—rgin trees for indu™tion —nd tr—nsdu™tionD €ro™eedings of the ƒixth sntern—tion—l gonferen™e on w—™hine ve—rningD ppF RUR!RVQD IWWWF‘UU“ yF ‰ildiz —nd iF elp—ydinD vine—r dis™rimin—nt treesD €ro™eedings of the ƒevenE teenth sntern—tion—l gonferen™e on w—™hine ve—rningD ppF IIUS!IIVPD PHHHF‘UV“ tF t—ngD ƒtru™ture determin—tion in fuzzy modeling X — fuzzy ™—rt —ppro—™hD €ro™eedings of the siii gonferen™e on puzzy ƒystemsD ppF RVH!RVSD IWWRF‘UW“ ‚F ‡e˜erD puzzyEidQ X — ™l—ss of methods for —utom—ti™ knowledge —™quisitionD sn €ro™eedings Pnd sntern—tion—l gonferen™e on puzzy vogi™ —nd xeur—l xetE worksD ppF PTS!PTVD IWWPF‘VH“ gF t—nikowD puzzy de™ision trees X issues —nd methodsD siii „r—ns—™tion on ƒystemsD w—nD —nd gy˜erneti™sD €—rt f X gy˜erneti™sD volF PVD noF ID ppF I!IRD IWWVF‘VI“ hF v—n de †l—g —nd eF ƒteinD sn™orporing un™ert—inty vi— hier—r™hi™—l ™l—ssi(E ™—tion using fuzzy de™ision treesD siii „r—ns—™tion on qeos™ien™e —nd ‚emote ƒensingD volF RSD noF ID ppF PQU!PRSD PHHUF ©‘VP“ ƒF „uà ryD h—t— mining et st—tistique dà ©™isionnelle E v9intelligen™e d—ns les © ˜—ses de donnà esF „e™hnipD PHHSF‘VQ“ €F ven™—D ƒF v—lli™hD —nd fF †—ill—ntD gonstru™tion of —n oE™entered entropy for the supervised le—rning of im˜—l—n™ed ™l—ssed X some (rst resultsD gommuni™—E tions in ƒt—tisti™s E „heory —nd methodsD volF QWD noF QD PHIHF‘VR“ eF viuD tF qhoshD —nd gF w—rtinD qener—tive overs—mpling for mining un˜—l—n™ed d—t—setsD sntern—tion—l gonferen™e on h—t— winingD ppF TT!UPD PHHUF‘VS“ wF uu˜—t —nd ƒF w—twinD eddressing the ™urse of im˜—l—n™ed d—t— set X oneE sided s—mplingD sntern—tion—l gonferen™e on w—™hine ve—rningD ppF IUW!IVTD IWWUF‘VT“ tF wingerD en empiri™—l ™omp—rison of pruning methods for de™ision tree indu™E tionD w—™hine ve—rningD volF RD noF PD ppF PPU!PRQD IWVWF‘VU“ pF ispositoD hF w—ler˜—D —nd qF ƒemer—roD e ™omp—r—tive —n—lysis of methodsD siii „r—ns—™tions on €—ttern w—™hine sntelligen™eD volF IWD noF SD ppF RUT!RWID IWVUF‘VV“ „F ˆi—ng —nd ƒF qongD wodel sele™tion for unsupervised le—rning of visu—l ™ontextD sntern—tion—l tourn—l of gomputer †isionD volF TWD noF PD ppF IVI!PHID PHHSF‘VW“ rF ek—ikeD snform—tion theory —nd —n extension of m—ximum likelihood prinE ™ipleD Pnd sntern—tion—l ƒymposium on snform—tion „heoryD ppF PTU!PVID IWUQF‘WH“ qF willig—n —nd wF gooperD en ex—min—tion of pro™edures for determining the num˜er of ™lusters in — d—t— setD €sy™hometrik—D volF SVD noF PD ppF ISW!IUWD IWVSF
  • 144. ™lvi BIBLIOGRAPHIE ‘WI“ €F ‚ousseeuwD ƒilhouettes X — gr—phi™—l —id to the interpret—tion —nd v—lid—tion of ™luster —n—lysisD tourn—l of gomput—tion—l —nd epplied w—them—ti™sD volF PHD ppF SQ!TSD IWVUF ‘WP“ „F v—ngeD †F ‚othD wF fr—unD —nd tF fuhm—nnD ƒt—˜ilityE˜—sed v—lid—tion of ™lustering solutionsD xeur—l gomput—tionD volF ITD noF TD ppF IPWW!IQPQD PHHTF ‘WQ“ eF idw—rd —nd vF g—v—lliEƒforz—D e method for ™luster —n—lysisD fiometri™sD volF PID ppF QTP!QUSD IWTSF ‘WR“ tF ‡—rdD rier—r™hi™—l grouping to optimize —n o˜je™tive fun™tionD tourn—l of the emeri™—n ƒt—tisti™—l esso™i—tionD volF SVD ppF PQT!PRRD IWTQF ‘WS“ vF freim—nD ‚—ndom forestsD w—™hine ve—rningD volF RSD pF S XQPD PHHIF ‘WT“ „F ƒhi —nd ƒF rorv—thD …nsupervised le—rning with r—ndom forest predi™torsD tourn—l of gomput—tion—l —nd qr—phi™—l ƒt—tisti™sD volF ISD noF ID ppF IIV!IQVD PHHTF ‘WU“ ƒF vloydD ve—st squ—re qu—ntiz—tion in p™mD siii „r—ns—™tions on snform—tion „heoryD volF PVD noF PD ppF IPW!IQUD IWVPF ‘WV“ tF r—rtig—nD glustering —lgorithmsD ‡illeyD IWUSF ‘WW“ „F u—nungoD hF wountD xF xet—ny—huD gF €i—tkoD ‚F ƒilverm—nD —nd eF ‡uD en e0™ient kEme—ns ™lustering —lgorithm X en—lysis —nd implement—tionD siii „r—ns—™tions on €—ttern en—lysis —nd w—™hine sntelligen™eD volF PRD ppF VVI!VWPD PHHPF‘IHH“ hF erthur —nd ƒF †—ssilvitskiiD uEme—nsCC X the —dv—nt—ges of ™—reful seedingD €ro™eedings of the eighteenth —nnu—l egwEƒsew symposium on his™rete —lgoE rithmsD ppF IHPU!IHQSD PHHUF‘IHI“ tF fezdekD €—ttern re™ognition with fuzzy o˜je™tive fun™tion —lgorithmsD uluwer e™—demi™ €u˜lishersD xorwelD weD IWVIF‘IHP“ ‚F hud—D €F r—rtD —nd hF ƒtorkD €—ttern ™l—ssi(™—tionF ‡ileyD PHHHF‘IHQ“ sF q—th —nd fF qev—D …nsupervised optim—l fuzzy ™lusteringD siii „r—ns—™tions on €—ttern en—lysis —nd w—™hine sntelligen™eD volF IID noF UD ppF UUQ!UVID IWVWF‘IHR“ ƒF qross˜ergD ed—pt—tive p—ttern ™l—ssi(™—tion —nd univers—l re™oding X sF p—r—lE lel development —nd ™oding of neur—l fe—ture dete™torsD fiologi™—l gy˜erneti™sD volF PQD ppF IPI!IQRD IWUTF‘IHS“ „F uohonenD ƒelfEorg—nized form—tion of topologi™—lly ™orre™t fe—ture m—psD fiologi™—l gy˜erneti™sD volF RTD ppF SW!TWD IWVPF‘IHT“ ""D ƒelfEorg—niz—tion m—psD ferlin X ƒpringerE†erl—gD volF QHD IWWSF‘IHU“ gF fishopD xeur—l networks for p—ttern re™ognitionD g—m˜ridge …niversity €ressD IWWSF‘IHV“ wF ‡e˜erD wF ‡ellingD —nd €F €eron—D …nsupervised le—rning of models for o˜je™t re™ognitionD iurope—n gonferen™e on gomputer †isionD volF ID ppF IV!QPD PHHHF‘IHW“ ""D „ow—rds —utom—ti™ dis™overy of o˜je™t ™—tegoriesD gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF IHI!IHVD PHHHF‘IIH“ tF €on™eD wF re˜ertD gF ƒ™hmidD —nd eF iserm—nD „ow—rd ™—tegoryElevel o˜je™t re™ognitionF ve™ture xotes in gomputer ƒ™ien™eD ƒpringerD PHHTF
  • 145. BIBLIOGRAPHIE ™lvii‘III“ vF quD iF ˆingD —nd „F u—n—deD ve—rning gmrf stru™tures for sp—ti—l priorsD sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD ppF I!TD PHHUF‘IIP“ eF ƒhiv—ni —nd hF ‚othD ve—rning — sp—rse represent—tion for o˜je™t dete™tionD iurope—n gonferen™e on gomputer †isionD ƒpringerD PHHPF‘IIQ“ wF †id—lEx—quet —nd ƒF …llm—nnD y˜je™t re™ognition with inform—tive fe—tures —nd line—r ™l—ssi(™—tionD sntern—tion—l gonferen™e on gomputer †isionD PHHQF‘IIR“ eF ypeltD wF pusseneggerD eF €inzD —nd €F euerD ‡e—k hypothäses —nd ˜ooE sying for generi™ o˜je™t dete™tion —nd re™ognitionD iurope—n gonferen™e on gomE puter †isionD PHHRF‘IIS“ eF f—rErillel —nd hF ‡einsh—llD i0™ient le—rning of rel—tion—l o˜je™t ™l—ss moE delsD sntern—tion—l tourn—l of gomputer †isionD volF UUD noF IEQD ppF IUS!IWVD PHHVF‘IIT“ ‚F pergusD €F €eron—D —nd eF isserm—nD y˜je™t ™l—ss re™ognition ˜y unsuperviE sed s™—le inv—ri—nt le—rningD sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD PHHQF‘IIU“ ""D ‡e—kly supervised s™—ledEinv—ri—nt le—rning of models for visu—l re™ogE nitionD sntern—tion—l tourn—l of gomputer †isionD volF UID noF QD ppF PUQ!QHQD PHHTF‘IIV“ gF ƒ™hmidD ‡e—kly supervised le—rning of visu—l models —nd its —ppli™—tion to ™ontentE˜—sed retriev—lF sntern—tion—l tourn—l of gomputer †isionFD volF STD ppF U!ITD PHHRF‘IIW“ hF tF gr—nd—ll —nd hF €F ruttenlo™herD ‡e—kly supervised le—rning of p—rtE˜—sed sp—ti—l models for visu—l o˜je™t re™ognitionD iurope—n gonferen™e on gomputer †isionD PHHTF‘IPH“ tF ghungD „F uimD ‰F x—m gh—eD —nd rF ‰—ngD …nsupervised ™onstell—tion model le—rning —lgorithm ˜—sed on voting weight ™ontrol for —™™ur—te f—™e lo™—liz—tionD €—ttern ‚e™ognitionD volF RPD noF QD ppF QPP!QQQD PHHWF‘IPI“ vF ˆie —nd €F €erezD ƒlightly supervised le—rning of p—rtE˜—sed —ppe—r—n™e moE delsD gomputer †ision —nd €—ttern ‚e™ognition ‡orkshopD volF TD PHHRF‘IPP“ gF ‚osen˜erg —nd wF re˜ertD „r—ining o˜je™t dete™tion models with we—kly l—˜eled d—t—D IQth fritish w—™hine †ision gonferen™eD ppF SUU!SVTD PHHPF‘IPQ“ wF †—s™on™elosD qF g—rneiroD —nd xF †—s™on™elosD ‡e—kly supervised topEdown im—ge segment—tionD sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD PHHTF‘IPR“ eF …lgesD gF ƒ™hulzeD hF ueysersD —nd „F freuelD sdentifying relev—nt fr—mes in we—kly l—˜eled videos for tr—ining ™on™ept dete™torsD sntern—tion—l gonferen™e on sm—ge —nd †ideo ‚etriev—lD ppF W!ITD PHHVF‘IPS“ tF ‚ossiter —nd „F wuk—iD fioEmimeti™ le—rning from im—ges using impre™ise expert inform—tionD puzzy ƒet —nd ƒystemsD volF ISVD noF QD ppF PWS!QIID PHHUF‘IPT“ tF ƒimmonds —nd hF w—™venn—nD pisheries —™ousti™s X theory —nd pr—™ti™eF yxE ford X fl—™kwell ƒ™ien™e vtdD PHHSF
  • 146. ™lviii BIBLIOGRAPHIE‘IPU“ ˆF huD ƒemiEsupervised le—rning liter—ture surveyD gomputer ƒ™ien™esD …niE versity of ‡is™onsinEw—disonD volF ISQHD PHHVF‘IPV“ uF xig—mD eF w™gullumD ƒF „hrunD —nd „F wit™helD ve—rning to ™l—ssify text from l—˜eled —nd unl—˜eled do™umentsD esso™i—tion for the edv—n™ement of erE ti(™i—l sntelligen™e tourn—lD IWWVF‘IPW“ uF xig—mD eF w™g—llumD ƒF „hrunD —nd qF w—nnD „ext ™l—ssi(™—tion from l—˜eE led —nd unl—˜eled do™uments using emD w—™hine ve—rningD volF QWD ppF IHQ!IQRD PHHHF‘IQH“ pF gozm—n —nd sF gohenD ‚isks of semiEsupervised le—rningF yF gh—pelleD eF ienD —nd fF ƒ™holkopf @idsAD ƒemiEƒupervised ve—rningD ws„ €ressD PHHTF‘IQI“ †F †—pnikD ƒt—tisti™i—l le—rning theoryF ‡ileyEsnters™ien™eD IWWVF‘IQP“ „F to—™himsD „r—nsdu™tive inferen™e for text ™l—ssi(™—tion using support ve™tor m—™hinesD €ro™eedings of the ITth sntern—tion—l gonferen™e on w—™hine ve—rE ningD ppF PHH!PHWD IWWWF‘IQQ“ vF ˆu —nd hF ƒ™huurm—nsD …nsupervised —nd semiEsupervised multiE™l—ss supE port ve™tor m—™hinesF €ro™eedings of the PHth x—tion—l gonferen™e —n erti(™i—l snteligen™eD PHHSF‘IQR“ †F ƒindhw—ni —nd ƒF ƒF ueerthiD v—rge s™—le semiEsupervised line—r svmsD ƒpe™i—l snterest qroup on snform—tion ‚etriev—lD PHHTF‘IQS“ yF gh—pelle —nd eF ienD ƒemiEsupervised ™l—ssi(™—tion ˜y low density sep—r—E tionD €ro™eedings of the IHth sntern—tion—l ‡orkshop on erti(™i—l snteligen™e —nd ƒt—tisti™sD PHHSF‘IQT“ yF gh—pelleD †F ƒindhw—niD —nd ƒF ƒF ueerthiD yptimiz—tion te™hniques for semiE supervised support ve™tor m—™hinesD tourn—l of m—™hine le—rning rese—r™hD volF WD noF pe˜D ppF PHQ!PQQD PHHVF‘IQU“ wFEpF f—lk—nD eF flumD €F ghoiD tF v—ertyD fF €—nt—noD —nd wF ‚we˜—ngir—D €erson identi(™—tion in we˜™—m im—ges X —n —ppli™—tion of semiEsupervised le—rE ningD ‡orkshop on ve—rning with €—rti—lly gl—ssi(ed „r—ining h—t— @sgwvAD PHHSF‘IQV“ ˆF h—ng —nd ‡F veeD ryperp—r—meter le—rning for gr—ph ˜—sed semiEsupervised le—rning —lgorithmsD edv—n™es in xeur—l snform—tion €ro™essing ƒystemsD volF IWD PHHTF‘IQW“ pF ‡—ng —nd gF h—ngD v—˜el prop—g—tion through line—r neigh˜orhoodsD snE tern—tion—l ™onferen™e on w—™hine ve—rningD PHHTF‘IRH“ eF flum —nd ƒF gh—wl—D ve—rning from l—˜eled —nd unl—˜eled d—t— using gr—ph min™utsD €ro™eedings of the IVth sntern—tion—l gonferen™e on w—™hine ve—rningD PHHIF‘IRI“ ˆF huD F qh—hr—m—niD —nd tF v—ertyD ƒemiEsupervised le—rning using g—ussi—n (elds —nd h—rmoni™ fun™tionsD sntern—tion—l gonferen™e on w—™hine ve—rningD ppF WIP!WIWD PHHQF‘IRP“ tF †er˜eek —nd xF †l—ssisD q—ussi—n (elds for semiEsupervised regression —nd ™oresponden™e le—rningD €—ttern ‚e™ognitionD volF QWD ppF IVTR!IVUSD PHHTF
  • 147. BIBLIOGRAPHIE ™lix‘IRQ“ wF felkinD sF w—tveev—D —nd €F xiyogiD ‚egul—riz—tion —nd semiEsupervised le—rE ning on l—rge gr—phsF €ro™eeding of the gonferen™e on gomput—tion—l ve—rning „heoryD PHHRF‘IRR“ qF qetz —nd xF ƒhent—lD ƒemiEsupervised le—rning E — st—tisti™—l physi™s —pE pro—™hD €ro™eeding of the PPnd sgwv ‡orkshop on ve—rning with €—rti—lly gl—ssi(ed „r—ining h—t—D PHHSF‘IRS“ eF egr—w—l—D ve—rning with — pro˜—˜ilisti™ te—™herD siii „r—ns—™tions on snE form—tion „heoryD volF ITD ppF QUQ!QUWD IWUHF‘IRT“ gF ‚osen˜ergD wF re˜ertD —nd rF ƒ™hneiderm—nnD ƒemiEsupervised selfEtr—ining of o˜je™t dete™tion modelsD Uth siii ‡orkshop on eppli™—tions of gomputer †isionD PHHSF‘IRU“ wF gulp —nd qF wi™h—ilidisD en iter—tive —lgorithm for extending le—rners to semiEsupervised settingD „he PHHU toint ƒt—tisti™—l weetingsD PHHUF‘IRV“ qF r——ri —nd eF ƒ—rk—rD en—lysis of semiEsupervised le—rning with the y—rowsky —lgorithmD PQrd gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD PHHUF‘IRW“ eF flum —nd „F wit™helD gom˜ining l—˜eled —nd unl—˜eled d—t— with ™oE tr—iningD ‡orkshop on gomput—tion—l ve—rning „heoryD ppF WP!IHHD IWWVF‘ISH“ gF wullerD ƒF ‚—ppD —nd wF ƒtru˜eD epplying ™oEtr—ining to referen™e resoluE tionD €ro™eeding of the RHth ennu—l weeting on esso™i—tion for gomput—tion—l vinguisti™sD ppF QSP!QSWD PHHIF‘ISI“ hF €ier™e —nd gF g—rdieD vimit—tion of ™oEtr—ining for n—tur—l l—ngu—ge le—rE ning from l—rge d—t—setsD gonferen™e on empiri™—l methods in n—tur—l l—ngu—ge pro™essingD ppF I!WD PHHIF‘ISP“ ƒF eF w—™sk—ssy —nd pF €rovostD e simple rel—tion—l ™l—ssi(erD €ro™eedings of the se™ond workshop on multiErel—tion—l d—t— miningD ppF TR!UTD PHHQF ¼‘ISQ“ „F qà rel —nd uF uerstingD yn the tr—deEo ˜etween iter—tive ™l—ssi(™—tion —nd ™olle™tive ™l—ssi(™—tion X (rst experiment—l resultsD sntern—tion—l ‡orkshop on wining qr—phsD volF QD PHHSF‘ISR“ gF wF fishop —nd sF …lusoyD qener—tive versus dis™rimin—tive methods for o˜je™t re™ognitionD ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF PSV!PTSD PHHSF‘ISS“ gF qiniD we—surement of inequ—lity of in™omeD i™onomi™ tourn—lD volF QID ppF PP!RQD IWPIF ©‘IST“ eF ‚à nyiD yn me—sures of entropy —nd inform—tionD €ro™eeding on the Rth ferkley ƒymposium on w—them—ti™—l ƒt—tisti™s —nd €ro˜—˜ilityD volF ID ppF SRU! STID IWTIF‘ISU“ ‰F preund —nd ‚F ƒ™h—pireD e de™isionEtheoreti™ gener—liz—tion of onEline le—rE ning —nd —n —ppli™—tion to ˜oostingD tourn—l of gomputer —nd ƒystem ƒ™ien™esD volF SSD ppF IIW!IQWD IWWUF‘ISV“ vF freim—nD f—gging predi™torsD w—™hine ve—rningD volF PTD noF PD ppF IPQ!IRHD IWWTF
  • 148. ™lx BIBLIOGRAPHIE‘ISW“ rF uimD ƒF €—ngD rF teD —nd ƒF f—ngD ƒupport ve™tor m—™hine ensem˜le with ˜—ggingF €—ttern ‚e™ognition with ƒupport †e™tor w—™hinesD PHHPF‘ITH“ fF h—ngD „F €h—mD —nd ‰F h—ngD f—gging support ve™tor m—™hine for ™l—ssi(E ™—tion of ƒivhE„op m—ss spe™tr— of ov—ri—n ™—n™er serum s—mplesF es PHHU X edv—n™es in erti(™i—l sntelligen™eD PHHUF‘ITI“ eF €rinzie —nd hF †—n hen €oelD ‚—ndom multi™l—ss ™l—ssi(™—tion X gener—lizing r—ndom forests to r—ndom wxv —nd r—ndom xfF ve™ture xotes in gomputer ƒ™ien™e E h—t—˜—se —nd ixpert ƒystems —ppli™—tionsD PHHUF‘ITP“ F ‰—ngD ˆF xieD ‡F ˆuD —nd tF quoD en —ppro—™h to sp—m dete™tion ˜y n—ive ˜—yes ensem˜le ˜—sed on de™ision indu™tionD Tth sntern—tion—l gonferen™e on snteligent ƒystems hesign —nd eppli™—tionsD volF PD ppF VTI!VTTD PHHTF‘ITQ“ ‰F preundD en —d—ptive version of the ˜oost ˜y m—jority —lgorithmD €ro™eedings of the twelfth ennu—l gonferen™e on gomput—tion—l ve—rning „heoryD ppF IHP! IIQD IWWWF‘ITR“ ‚F ƒ™h—pireD e ˜rief introdu™tion to ˜oostingD €ro™eedings of the ITth sntern—E tion—l toint gonferen™e on erti(™i—l sntelligen™eD IWWWF‘ITS“ tF priedm—nD „F r—stieD —nd ‚F „i˜shir—niD edditive logisti™ regression X — st—E tisti™—l view of ˜oostingD enn—ls of st—tisti™sD volF PVD noF PD ppF QQU!RHUD PHHHF‘ITT“ ‚F vutzD vogit˜oost with trees —pplied to the w™™i PHHT perform—n™e predi™tion ™h—llenge d—t—setsD €ro™eedings of the sntern—tion—l toint gonferen™e on neur—l networksD PHHTF‘ITU“ gF homingo —nd yF ‡—t—n—˜eD w—d—˜oost X — modi(™—tion of —d—˜oostD €ro™eeE dings of the „hirteenth ennu—l gonferen™e on gomput—tion—l ve—rning „heoryD ppF IVH!IVWD PHHHF‘ITV“ vF w—sonD €F f—rtlettD —nd tF f—xterD smproved gener—liz—tion through expli™it optimiz—tion of m—rginD w—™hine ve—rningD volF QVD noF QD ppF PRQ!PSSD PHHHF‘ITW“ ‚F w™hon—ldD hF r—ndD —nd sF i™kleyD en empiri™—l ™omp—rison of three ˜oosting —lgorithms on re—l d—t— sets with —rti(™i—l ™l—ss noiseD wultiple gl—ssi(er ƒystems E ve™ture xotes in gomputer ƒ™ien™esD ppF QS!RRD PHHQF‘IUH“ „F hietteri™hD en experiment—l ™omp—rison of three methods for ™onstru™ting ensem˜les of de™ision treesD w—™hine ve—rningD volF RHD noF PD ppF IQW!ISVD PHHHF‘IUI“ „F uF roD ‚—ndom de™ision forestD sghe‚D IWWSF‘IUP“ €F qeurtsD hF irnstD —nd vF ‡ehenkelD ixtremely r—ndomized treesD w—™hine ve—rningD volF QTD noF ID ppF Q!RPD PHHTF‘IUQ“ eF esun™ion —nd hF xewm—nD …™i m—™hine le—rning repositoryD http XGGwwwFi™sFu™iFeduG∼mle—rnGwv‚epositoryFhtmlF‘IUR“ ˆF vurtonD en introdu™tion to underw—ter —™ousti™sF PHHPD ˜ouquin sur l9—™ousE tique sous m—rineF‘IUS“ ƒF xF v—neD €F wF fironD uF pF fr—d˜rookD tF fF futlerD tF rF gh—ndlerD wF hF growellD ƒF tF w™vell—ndD uF ƒF ‚i™h—rdsD —nd eF qF ‚oyD „hreeEdimension—l me—surement of river ™h—nnel )ow pro™esses using —™ousti™ doppler velo™imetryD ‡iley snter ƒ™ien™eD volF PQD noF IQD ppF IPRU!IPTUD IWWVF
  • 149. BIBLIOGRAPHIE ™lxi ©‘IUT“ gF ƒ™—l—˜rinD sdenti(™—tion —™oustique des espä™es pà l—giques à p—rtir d9—tE tri˜uts dis™rimin—nts des ˜—n™s de poissons monospe™i(quesF „häse de ho™E © tor—tD …niversità de fret—gne y™™ident—leD i™ole ho™tor—le des ƒ™ien™es de l— werD IWWUF ©‘IUU“ tF ‚enou —nd €F „™herni—D hà te™tion des ˜—n™s de poissons p—r ultr—EsonsF © winistäre de l— w—rineF gommuni™—tion sur l9y™Ã —n et les gátesFD ppF PI!PWD IWRUF‘IUV“ ‡F rodgsonD i™hoEsounding —nd the pel—gi™ (sheriesF pish snvestig—tionD volF IUD noF PD pF PS ppD IWSHF © ª‘IUW“ eF €er™ierD ves —™tività s du ˜—te—uEpiloteEdeEpà ™he doni˜—neF ‚evue des ª „r—v—ux de l9snstitut des €Ã ™hes w—ritimesD volF PQD noF PD ppF ITP!IUTD IWSWF‘IVH“ hF rollid—yD ‚eson—n™e stru™ture in e™hoes from s™hooled pel—gi™ (shF tourn—l of the e™ousti™—l ƒo™iety of emeri™—D volF SID noF RD ppF IQPP!IQQPD IWUPF‘IVI“ uF toh—nnesson —nd ‚F witsonD ƒome results of o˜served —˜und—n™e estim—tions in sever—l undpGf—o resour™e survey proje™tsF ƒymposium on e™ousti™ wethods in pisheries ‚ese—r™hD volF QD pF UUppD IHUQF‘IVP“ hF rollid—yD „he use of swim˜l—der reson—n™e in the sizing of s™hooled pel—gi™ © (shF ‚—pport et €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF IQH!IQSD IWUUF‘IVQ“ yF x—kken —nd uF ylsenD „—rget strength me—surment of (shF ‚—pport et © €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF SP!TWD IWUUF‘IVR“ eF r—wkinsD pish sizing ˜y me—ns of swim˜l—dder reson—n™eF ‚—pport et © €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF IPP!IPWD IWUUF‘IVS“ qF ‚ose —nd ‡F veggettD rydro—™ousti™ sign—l ™l—ssi(™—tion of (sh s™hools ˜y spe™iesF g—n—di—n tourn—l of pisheries —nd equ—ti™ ƒ™ien™esD ppF SWU!THRD IWVVF‘IVT“ hF †r—yD qF qimenezD —nd ‚F €ersonD ettempt —t ™l—ssi(™—tion of e™hoEsounder sign—ls ˜—sed on the line—r dis™rimin—nt fon™tion of (sherF ‚—pport et €ro™Ã¤sE © †er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF QVV!QWQD IWWHF‘IVU“ hF ‚eidD ‚eport on e™ho tr—™e ™l—ssi(™—tionF sgiƒ goEoper—tion ‚ese—r™h ‚eport PQVD PHHHF‘IVV“ xF hinerD eF ‡eillD tF go—ilD —nd tF goudevilleD snesEmovies X — new —™ousti™ d—t— —™quisition —nd pro™essing systemD sgiƒ tourn—l of w—rine ƒ™ien™eD volF fDRSD pF IID IWVWF‘IVW“ eF ‡eill —nd xF hinerD woviesE˜ X — new softw—re for s™hool ™h—r—™teriz—tionF sgiƒ tourn—l of w—rine ƒ™ien™eD pF IQD IWWIF‘IWH“ eF ‡eillD gF ƒ™—l—˜rinD —nd xF hinerD woviesE˜ X —n —™ousti™ dete™tion des™riptor softw—reF —ppli™—tion to s™ho—l spe™ies9 ™l—ssi(™—tionF equ—ti™ viving ‚esour™esD volF TD ppF PSS!PTUD IWWQF
  • 150. ™lxii BIBLIOGRAPHIE‘IWI“ gF ƒ™—l—˜rinD eF ‡eillD —nd xF hinerD „he stru™ture of multdimension—l d—t— from —™ousti™ dete™tion of (sh s™hoolsF iurope—n gonferen™eon …nderw—ter e™ousti™D ppF IRI!IRTD IWWPF ©‘IWP“ gF ƒ™—l—˜rin —nd tF w—ssà D e™ousti™ dete™tion of the sp—ti—l —nd tempor—l distri˜ution of (sh sho—ls in the ˜—y of ˜is™—yD equ—ti™ viving ‚esour™esD volF TD ppF PTW!PVQD IWWQF‘IWQ“ gF ƒ™—l—˜rin —nd ˆF vurtonD pish s™ho—ls —mplitude —n—lysisF iurope—n gonfeE ren™eon …nderw—ter e™ousti™D volF PD ppF VHU!VIRD IWWRF‘IWR“ gF ƒ™—l—˜rinD xF hinerD —nd eF ‡eillD eutom—ti™ sho—l re™ognition —nd ™l—ssi(E ™—tion ˜—sed on moviesE˜ softw—reD y™e—ns9WRD volF PD ppF QIW!QPRD IWWRF‘IWS“ gF ƒ™—l—˜rinD xF hinerD eF ‡eillD eF rillionD —nd wFEgF wou™hotD x—rrowE ˜—nd —™ousti™ identi(™—tion of monospe™i(™ (sh sho—lsD sgiƒ tourn—l of w—rine ƒ™ien™eD volF SQ@PAD ppF IVI!IVVD IWWTF‘IWT“ xF hinerD gorre™tion on s™hool geometry —nd density X —ppro—™h ˜—sed on —™ousE ti™ im—ge simul—tionD equ—ti™ viving ‚esour™esD volF VP@IEQAD ppF PII!PPPD PHHIF ©‘IWU“ pF qerlottoD wF ƒori—D —nd €F prà onD prom two dimensions to three X the use of multi˜e—m son—r for — new —ppro—™h in (sheries —™ousti™sF g—n—di—n tourn—l of pisheries —nd equ—ti™ ƒ™ien™esD volF STD ppF T!IPD IWWWF‘IWV“ pF qerlotto —nd tF €—r—moD „he threeEdimension—l morphology —nd intern—l stru™ture of ™lupeid s™hools —s o˜served using verti™—lEs™—nningD multi˜e—m soE n—rF equ—ti™ viving ‚esour™esD volF ITD ppF IIQ!IPPD PHHQF‘IWW“ †F „renkelD †F w—z—uri™D —nd fF vFD „he new multi˜e—m (sheries e™hosounder meUH X des™ription —nd expe™ted ™ontri˜ution to (sheries rese—r™hF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TSD ppF TRS!TSSD PHHVF‘PHH“ vF fergerD gF €on™eletD —nd †F „renkelD e method for redu™ing un™ert—inty in estim—tes of (shEs™hool frequen™y response using d—t— from multifrequen™y —nd multi˜e—m e™hosoundersF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TTD ppF IISS! IITID PHHWF‘PHI“ ƒF fourguignonD vF fergerD gF ƒ™—l—˜rinD ‚F p—˜letD —nd †F w—z—uri™D wethodoE logi™—l developments for improved ˜ottom dete™tion with the meUH multi˜e—m e™hosounderF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TTD ppF IHIS!IHPPD PHHWF ©‘PHP“ †F „renkelD vF fergerD ƒF fourguignonD wF hor—yD ‚F p—˜letD tF w—ssà D †F w—E z—uri™D gF €on™eletD qF uemenerD gF ƒ™—l—˜rinD —nd rF †ill—lo˜osD yverview of re™ent progress in (sheries —™ousti™s m—de ˜y ifremer with ex—mples from the ˜—y of ˜is™—yF equ—ti™ viving ‚esour™esD volF PPD noF RD ppF RQQ!RRTD PHHWF‘PHQ“ xF hinerD iv—lu—ting un™ert—inty in me—surement of (sh s™ho—l —ggreg—te ˜—™ksE ™—ttering ™rossEse™tion ™—used ˜y sm—ll sho—l size rel—tive to ˜e—m widthF equ—ti™ viving ‚esour™esD volF PHD ppF IIU!IPID PHHUF‘PHR“ gF gh—ng —nd vF gFtFD http XGGwwwF™sieFntuFtwG ™jlinGli˜svmGD PHIHF‘PHS“ wF ‡oillezD tFEgF €oul—rdD tF ‚ivoir—rdD €F €etitg—sD —nd xF fezD sndi™es for ™—pturing sp—ti—l p—tterns —nd their evolution in timeD with —ppli™—tion to euroE pe—n h—ke @merlu™™ius merlu™™iusA in the ˜—y of ˜is™—yD sgiƒ tourn—l of w—rine ƒ™ien™eD volF TRD ppF SQU!SSHD PHHUF
  • 151. BIBLIOGRAPHIE ™lxiii‘PHT“ tF furgos —nd tF rorneD gh—r—™teriz—tion —n™ ™l—ssi(™—tion of —™ousti™—lly dete™E ted (sh distri˜utionD sgiƒ tourn—l of w—rine ƒ™ien™eD volF TSD ppF IPQS!IPRUD PHHVF‘PHU“ qF …pton —nd fF pingletonD ƒp—ti—l d—t— —n—lysis ˜y ex—mple X €oint p—ttern —ns qu—ntit—tive d—t—D tF ‡ileyD xE‰D volF ID IWVSF‘PHV“ xF gressieD ƒt—tisti™s for sp—ti—l d—t—D ‡ileyD xew ‰orkD IWWQF ©‘PHW“ pF qore—ud —nd ‚F €Ã lisserierD yn expli™it formul—s of edge ee™t ™orre™tion for ripley9s kEfun™tionD tourn—l of †eget—tion ƒ™ien™eD volF IHD ppF RQQ!RQVD IWWWF‘PIH“ wF ƒ™hl—therD yn the se™ondEorder ™h—r—™teristi™s of m—rked point pro™essesD fernoulliD volF UD ppF WW!IIUD PHHIF‘PII“ hF ƒtoy—n —nd eF €enttinenD ‚e™ent —ppli™—tions of point pro™ess methods in forestry st—tisti™sD ƒt—tisti™—l ƒ™ien™eD volF ISD noF ID ppF TI!UVD PHHHF‘PIP“ ‚F ‡en —nd ‚F ƒindingEv—rsenD ƒto™h—sti™ modelling —nd simul—tion of sm—ll f—ults ˜y m—rked point pro™esses —nd krigingD iF‰F f——( —nd xFeF ƒ™hol(eld @edsAD qeost—tisti™s ‡ollongongD volF ID ppF QWV!RIRD IWWUF‘PIQ“ pF ens™om˜eD „he v—lidity of ™omp—r—tive experimentsD tourn—l of the ‚oy—l ƒt—tisti™—l ƒo™ietyF ƒeries eFD volF IIID noF QD ppF IVI!PIID IWRVF‘PIR“ xF fez —nd tF ‚ivoir—rdD „r—nsitive geost—tisti™s to ™h—r—™terise sp—ti—l —ggreg—E tions with diuse limits X —n —ppli™—tion on m—™kerel i™htyopl—nktonD pisheries ‚ese—r™hD volF SHD ppF RI!SVD PHHIF ©‘PIS“ tF w—ssà D e™ousti™ o˜serv—tions in the ˜—y of ˜is™—y X s™holingD verti™—l disE tri˜utionD spe™ies —ssem˜l—ges —nd ˜eh—viourD ƒ™ienti— w—rin—D volF THD noF PD ppF PPU!PQRD IWWTF‘PIT“ pF qerlottoD sdenti(™—tion —ns sp—ti—l str—ti(™—tion of tropi™—l (sh ™on™entr—tions using —™ousti™ popul—tionsD equ—ti™ viving ‚esour™esD volF TD ppF PRQ!PSRD IWWQF‘PIU“ wF hor—yD tF w—sseD —nd €F €etitg—sD €el—gi™ (sh sto™k —ssessment ˜y —™ousti™ methods —t ifremerD http XGG—r™himerFifremerFfrGdo™GHHHHQGIIRRTGD PHIHF‘PIV“ hF w—™venn—nD €F pern—ndesD —nd hF tFD e ™onsistent —ppro—™h to de(nitions —nd sym˜ols in (sheries —™ousti™sD sgiƒ tourn—l of w—rine ƒ™ien™eD volF SWD ppF QTS!QTWD PHHPF ©‘PIW“ €F €etitg—sD tF w—ssà D €F feilloisD iF ve˜—r˜ierD —nd eF ve g—nnD ƒ—mpling v—ri—n™e of spe™ies identi(™—tion in (sheries —™ousti™ surveys ˜—sed on —utom—ted pro™edures —sso™i—ting —™ousti™ im—ges —nd tr—wl h—ulsF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TH@QAD ppF RQU!RRSD PHHQF‘PPH“ sF u—rouiD ‚F p—˜letD —nd tFEwF fou™herD p—st m—r™hing —nd —™ousti™ des™riptors ˜—sed method for (sh proportion interpol—tionD y™e—ns9HVD PHHVF‘PPI“ „F r—mmond —nd qF ƒw—rtzm—nD e gener—l pro™edure for estim—ting the ™omE position of (sh s™hool ™luster using st—nd—rd —™ousti™ survey d—t—D sgiƒ tourn—l of w—rine ƒ™ien™eD volF SVD ppF IIIS!IIQPD PHHIF‘PPP“ „F u—il—thD „he divergen™e —nd ˜h—tt—™h—rry— dist—n™e me—sure in sign—l seE le™tionD siii tr—ns—™tions on gommuni™—tion „e™hnologyD volF ISD noF ID ppF SP!THD IWTUF
  • 152. ™lxiv BIBLIOGRAPHIE‘PPQ“ ƒF uull˜—™kD snform—tion theory —nd st—tisti™sD tohn ‡iley —nd ƒonsD x‰D IWSWF‘PPR“ ƒF uull˜—™k —nd ‚F vei˜lerD yn inform—tion —nd su0™ien™yD enn—ls of w—theE m—ti™—l ƒt—tisti™sD volF PPD noF ID ppF UW!VTD IWSIF‘PPS“ yF …llt—ngD pish sto™k —ssessment —nd predi™tions X integr—ting relev—nt knowE ledgeF —n overviewF ƒ™ienti— w—rin—D volF TUD noF ID ppF S!IPD PHHQF‘PPT“ rF ‚o˜oth—mD €F foshD tF qutierrezEistr—d—D tF g—stilloD —nd sF €ulidoEg—lvoD e™ousti™ identi(™—tion of sm—ll pel—gi™ spe™ies in ™hile using support m—™hines —nd neur—l networksD pisheries ‚ese—r™hD volF IHPD noF IEPD ppF IIS!IPPD PHIHF‘PPU“ wF iveringh—mD vF †—n qoolD gF ‡illi—msD tF ‡innD —nd eF isserm—nD „he p—s™—l visu—l o˜je™t ™l—sses @vo™A ™h—llengeD sntern—tion—l tourn—l of gomputer †isionD volF VVD noF PD ppF QHQ!QQVD PHIHF‘PPV“ †F perr—riD wF w—rinEtimenezD —nd eF isserm—nD €rogressive se—r™h sp—™e reE du™tion for hum—n pose estim—tionD gomputer †ision —nd €—ttern ‚e™ognitionD ppF I!VD PHHVF‘PPW“ tF w™euleyD „F g—et—noD —nd eF ƒmol—D ‚o˜ust ne—rEisometri™ m—t™hing vi— stru™tured le—rning of gr—pgi™—l modelsD gonferen™e on xeur—l snform—tion €roE ™essing ƒystemsD PHHVF‘PQH“ wF fl—s™hko —nd gF v—mpertD ve—rning to lo™—lize o˜je™ts with stru™tured output regressionD iurope—n gonferen™e on gomputer †isionD PHHVF‘PQI“ „F r—r—d—D rF x—k—y—m—D —nd ‰F uuniyoshiD smproving lo™—l des™riptors ˜y emE ˜edding glo˜—l —nd lo™—l sp—ti—l inform—tionD iurope—n gonferen™e on gomputer †isionD PHIHF