Codage de vidéo multi-vue (MVC)

Top PDF Codage de vidéo multi-vue (MVC):

Compression de contenu vidéo Super Multi-Vue avec parallaxe horizontale et verticale

Compression de contenu vidéo Super Multi-Vue avec parallaxe horizontale et verticale

3. État de l’art 3.1. Extensions multi-vues des encodeurs vidéo standards SMV définit du contenu vidéo 3D multi-vues avec des dizaines ou des centaines de vues, avec une parallaxe soit uniquement horizontale, soit dans les deux dimensions. Le nombre massif de vues augmente la quantité de données à traiter par rapport aux technologies vidéo 3D actuelles. La corrélations inter-vues est également augmentée. Les en- codeurs multi-vues standards actuels sont conçus et implé- mentés pour un contenu avec parallaxe horizontale unique- ment et avec un nombre limité de vues. MVC et MV-HEVC sont respectivement les extensions multi-vues des standards H.264/AVC et HEVC [Ohm13]. Ces extensions introduisent de la syntaxe haut-niveau permettant la prédiction inter- vues. L’extension 3D-HEVC fournit des outils de codage liés aux cartes de profondeur, des outils de prédictions inter- composantes (c’est à dire entre texture et carte de profon- deur) et de nouveaux outils de codage pour les vues aux ni- veaux des Coding Unit (dans HEVC les CUs remplacent les macroblocks de H.264/AVC).
En savoir plus

7 En savoir plus

Approches théoriques en codage vidéo robuste multi-terminal.

Approches théoriques en codage vidéo robuste multi-terminal.

Toutes ces techniques sont très efficaces, mais il est généralement très difficile de trouver un ensemble de paramètres optimal, surtout si de nombreux récepteurs expérimentent des conditions de canal différentes. Le codage par descriptions multiples (codage MD) (en anglais Multiple Description Coding, MDC) est une autre technique de codage conjoint source-canal qui peut être vue comme un moyen d’améliorer la résistance aux erreurs sans utiliser des techniques com- plexes de codage de canal. Le principe du codage MD consiste à créer plusieurs descriptions corrélées du signal et les transmettre sur plusieurs canaux. Les descriptions peuvent avoir la même importance (on parle alors de schémas équilibrés) ou des importances différentes (schémas déséquilibrés). Au récepteur, plus le nombre de descriptions reçues est grand, plus la qualité du signal reconstruit est élevée. Contrairement aux algorithmes FEC, il n’existe pas de seuil au delà duquel la qualité décroît très fortement (l’effet de cliff). On parle alors de dégradation progressive. La robustesse vient du fait qu’il est très peu vraisemblable qu’une même portion d’une même information soit corrompue dans toutes les descriptions. L’efficacité de codage est réduite du fait de la présence de redondance dans les descriptions. Nous commencerons ce chapitre par une présentation du problème de codage MD dans le cas de deux descriptions puis nous donnerons les limites théoriques pour ce problème ainsi que pour N descriptions. Dans une deuxième partie, nous présenterons les techniques de codage MD dans le domaine transformé, quantifié et au niveau du codage de canal. Puis, nous nous intéresserons aux propriétés des descriptions multiples pour une utilisation sur des canaux ou réseaux avant de terminer par un aperçu des applications du codage MD en vidéo.
En savoir plus

170 En savoir plus

Analyse et compression de la vidéo multi-vues

Analyse et compression de la vidéo multi-vues

Analyse et compression de la vidéo multi-vues. iii Résumé Comme tout autre codec vidéo existant, le codage de la vidéo multi-vues nécessite une compression très efficace. Cependant, il a besoin en plus d'un accès aléatoire rapide à n'importe quelle vue donnée. Cette efficacité de la compression peut être satisfaite en exploitant simultanément la corrélation temporelle et inter-vues. Les accès aléatoires temporel et inter-vues sont améliorés par l'augmentation d‘images de type Intra-codées (les images I). Ceci produit un débit binaire plus élevé. Dans cette thèse, nous proposons et nous évaluons une nouvelle structure de prédiction inter-vues basée principalement sur la réduction de la complexité de l‘accès aléatoire inter-vues à tout instant Tn ainsi que l'amélioration de la corrélation inter-vues des vues de type P. Ces améliorations peuvent être garanties par le choix approprié de la position de la vue I, le type des différentes vues et le nombre de chaque type d‘image à utiliser. Par comparaison avec le schéma de prédiction, basé sur la structure d‘images B hiérarchique et utilisé par le modèle de référence « Joint Multi-view Video Model (JMVM) », les résultats expérimentaux ont montré que la structure de prédiction proposée améliore les performance en termes de débit binaire allant jusqu'à 6,81% avec une qualité de compression similaire mesurée en PSNR (Peak Signal-to-Noise Ratio). Une amélioration significativement de l‘accès aléatoire inter-vues pouvant atteindre 25% est également obtenue.
En savoir plus

169 En savoir plus

Techniques de codage d'images basées représentations parcimonieuses de scènes et prédiction spatiale multi-patches

Techniques de codage d'images basées représentations parcimonieuses de scènes et prédiction spatiale multi-patches

115 Approches nouvelles basées épitome Dans cette deuxième partie, nous nous sommes intéressés à la notion de factorisation d'image avec l'espoir, dans un contexte de compression vidéo, que cette factorisation nous permette de reconstruire l'image initiale. Cette approche nous a amenés à deux schémas de compression de conceptions bien diérentes. Tout d'abord la factorisation de l'image s'est eectuée via un épitome, celui-ci a été en quelque sorte élaboré à partir d'un algorithme de correspondance basé translation pure au pel entier ainsi qu'au 1/4 de pel. Un soin tout particulier a été apporté à la construction de l'épitome via les blocs "inférents" ainsi qu'à l'utilisation des interpolateurs au 1/4 de pel. Dans les faits, l'épitome résultant contient un concentré des structures spatialement répétitives ainsi que les singularités de l'image. Epitome/Carte de vecteurs : le premier schéma de codage s'est inspiré des travaux de [ WWOH08 ], où l'épitome est composé de la texture et d'une carte de vecteurs d'assigna- tion permettant de reconstruire l'image initiale (aux erreurs de correspondance près). Dans cette première méthode, nous avons donc encodé l'épitome (texture + vecteur d'assigna- tion), puis cet épitome codé et décodé est utilisé pour reconstruire l'image, reste alors à encoder l'erreur résiduelle de prédiction entre cette image reconstruite et l'image courante originale. Ces premiers travaux, quant à l'utilisation de l'épitome ont donné des résultats probants comparés à MPEG-4 AVC et [ WWOH08 ], néanmoins bien en deçà de ceux obte- nus avec les méthodes multi-patches intégrées dans un codeur conventionnel de la première partie. Ce décit de performance (vs multi-patches basés NE) vient évidemment de la non utilisation de méthodes de prédiction multi-patches mais aussi du coût de la carte de vecteurs d'assignation utilisée pour construire l'image de prédiction. Cette analyse nous a amenés à la conception d'un autre schéma de codage cette fois ci plus en rupture avec les techniques conventionnelles.
En savoir plus

142 En savoir plus

Techniques de codage d'images basées représentations parcimonieuses de scènes et prédiction spatiale multi-patches

Techniques de codage d'images basées représentations parcimonieuses de scènes et prédiction spatiale multi-patches

Dans la section précédente, nous avons présenté un premier schéma de compression basé épitome dans lequel l'image courante est encodée en inter-image par rapport à une image de référence reconstruite à partir de l'image épitome et de la carte d'assignation associée. Malgré des premiers résultats prometteurs, les limites du premier schéma de codage proposé nous ont contraints à revoir la conception du schéma global. En eet, jusqu'à maintenant, un vecteur d'assignation était systématiquement transmis pour chaque bloc de l'image alors que le codeur pouvait retenir un des modes directionnels d'H264 et non la prédiction basée épitome. An d'éviter de transmettre inutilement des vecteurs d'assignation, une solution possible serait d'encoder l'image courante directement en référence à l'épitome codé/décodé en autorisant une zone d'excursion sur toute l'image. Dans ce cas, la prédiction résultant de l'image épitome doit être déterminée à l'aide d'un estimateur considérant la position du bloc pointé dans l'épitome et non le vecteur de déplacement. Cependant, le coût des vecteurs d'assignation demeure non négligeable par rapport au débit total. Ce coût est d'autant plus accru que le nombre d'occurrences du mode de prédiction basé épitome est élevé. Une manière possible permettant de restreindre l'utilisation de vecteurs d'assignation consiste à reconstruire des blocs de l'image d'entrée à partir de l'épitome associé en faisant intervenir des méthodes de prédiction s'appuyant uniquement sur le voisinage causal telles que le Template Matching ou d'autres méthodes dérivées (LLE). Dans ce cas, deux types de scanning s'orent à nous pour encoder l'image courante :
En savoir plus

142 En savoir plus

« t’es qui toi ? »… Question sans réponse en situation de jeux vidéo multi-joueurs

« t’es qui toi ? »… Question sans réponse en situation de jeux vidéo multi-joueurs

3.1 Du point de vue théorique, entre paires adjacente et formes nominales d’adresses Dans notre étude sur les questions sans réponse dans les interactions multi-joueurs, nous avons mobilisé deux notions fondamentales en analyse des interactions. En premier lieu, nous reprenons le concept de paire adjacente tel qu’il développait par Sacks, Schegloff et Jefferson. En effet, l’organisation des séquences interactionnelles se base sur l’idée initiale que la parole est une forme d'action sociale : dans les tours de paroles, les participants en interaction réalisent des actions à travers leur discours. En outre, certaines actions rendent d'autres actions pertinentes dans le prochain slot – comme actions suivantes - qui sont à leur tour reconnues comme étant provoquées par l'action précédente. Cette relation entre les actions est à la base de la notion de paire adjacente (Schegloff 1991 ; Schegloff & Sacks 1973). Les paires adjacentes ont un certain nombre de caractéristiques essentielles qui permettent d’en établir une première définition générale : elles sont (1) composées de deux tours (2) produits par différents locuteurs ; (3) les tours sont placés l’un à côté de l’autre dans leur forme basique et minimale, (4) ils sont ordonnés et (5) se différencient en type de paires. Certains énoncés sont produits pour initier des actions suivantes alors que d'autres sont réalisés pour compléter l'action initiée. Ces formes d’énoncés qui initient des actions sont appelées première partie de paires (PPP) ou first pair part (FPP), tandis que ceux qui résultent de ces actions initiées sont appelés seconde partie de paires (SPP) ou second pair part (SPP). Les types de paires adjacentes les plus rencontrés sont par exemple : question-réponse ; salutation- salutation ; injonction-réponse ; annonce-acceptation. Comme le précise également de Fornel & Léon (2000 : 140) :
En savoir plus

11 En savoir plus

Codage dans les réseaux

Codage dans les réseaux

3 Résumé La fiabilité des transmissions est un des principaux problèmes qu’ont à résoudre les concep- teurs de systèmes de communication. Parmi les mécanismes de fiabilité, les codes correc- teurs d’erreurs permettent de protéger les données transmises de manière pro-active contre les erreurs de transmission. Historiquement, ces codes étaient principalement utilisés sur la couche physique. L’augmentation de la puissance des machines a permis de les intégrer sur les couches hautes des piles de protocoles de communication depuis le milieu des années 90. Cette intégration a ouvert de nouvelles problématiques de recherche. L’une d’entre elles est la conception de codes adaptés aux contraintes des systèmes dans lesquels ils sont intégrés. La première partie des travaux présentés dans ce mémoire concerne ce thème. Nous avons en particulier fait plusieurs propositions pour améliorer les vitesses de codage et de décodage en logiciel des codes MDS (dont les représentants les plus connus sont les codes de Reed- Solomon). Une RFC est en cours de publication à l’IETF sur ce sujet. Une modification de la structure de ces codes nous a permis de les adapter aux transmissions multimédia en introduisant des niveaux de protection variables entre les symboles d’un même mot de code. Enfin, en relâchant au maximum leur structure, nous avons construit un système de codage "à la volée" s’intégrant particulièrement bien dans des protocoles de communication classiques. La seconde thématique concerne la distribution des mécanismes de fiabilité et de la redon- dance sur les différentes couches protocolaires. Nous avons par exemple étudié la possibilité de laisser des paquets corrompus remonter les couches pour être corrigés ou simplement traités par les couches hautes. Lors de collaborations avec le CNES et Thalès Alénia Space, nous avons étudié le cas des transmissions multimédia de satellites vers des mobiles (SDMB et DVB-SH) en analysant les différentes solutions de distribution de la redondance sur les couches physique, liaison et les couches hautes. Différentes applications de ce travail ont débouché sur le dépôt de 2 brevets.
En savoir plus

84 En savoir plus

Une approche multi-agents pour le développement d'un jeu vidéo

Une approche multi-agents pour le développement d'un jeu vidéo

CHAPITRE 5 CONCLUSION Le jeu développé pour ce mémoire démontre bien l’utilisation et l’importance d’un système multi-agents dans un jeu vidéo. Dans le jeu développé pour ce mémoire, les probabilités pour un agent de gagner la partie sont bien plus grandes lorsqu’il fait partie du système qu’individuellement. Cette différence s’explique principalement par la co- opération entre les agents. En effet, les agents s’échangent des informations importantes sur leurs destinations respectives et sur le joueur humain leur permettant ainsi de coor- donner leurs mouvements afin d’éviter les collisions et d’augmenter leur chance de faire perdre des points au joueur humain. Le déplacement de chaque agent est réalisé à l’aide de l’algorithme A* qui est très utilisé dans l’industrie du jeu vidéo. Le comportement de chaque agent est réalisé avec un «arbre de décisions» qui permet plus de flexibilité au niveau du code qu’une machine à états finis.
En savoir plus

85 En savoir plus

Suivi multi-objets par la détection : application à la vidéo surveillance

Suivi multi-objets par la détection : application à la vidéo surveillance

CHAPITRE 3 MÉTHODOLOGIE 3.1 Vue d’ensemble et motivation Les principales étapes de notre méthode sont décrites à la figure 3.1. Un objet à suivre est une ROI (région d’intérêt) qui est définie par une boîte rectangulaire située à l’intérieur d’une trame. L’ensemble des caractéristiques de l’objet cible est initialisé par sa première apparition dans une trame par des caractéristiques calculées pour chaque détection. Les détections sont obtenues dans chaque trame en utilisant un détecteur d’objets. Dans le but de diminuer le nombre de fausses détections, les détections sont filtrées en éliminant celles ayant une taille inappropriée ou une faible valeur de confiance de classification. Initialement, un ensemble d’un nombre connu de trajectoires est construit dans lequel chaque objet cible est défini par un état et un ensemble de caractéristiques. L’ensemble des objets cibles seront mise à jour dynamiquement pour refléter les changements de modèles d’apparence ainsi que pour traiter les problèmes connus d’un algorithme MOT. En plus d’un modèle de couleur et d’un modèle épars de l’objet cible, nous proposons également un modèle de mouvement qui inclut une caractéristique de flux optique et une caractéristique spatiale. Grâce à ce modèle du mouvement, on évite les fausses associations (appariements) entre l’ensemble des objets cibles et l’ensemble des objets candidats (un objet candidat est une détection). Pour chaque trame, une fonction d’affinité est calculée. Cette fonction reflète la similarité entre les objets cibles et l’ensemble des objets candidats en se basant sur leurs modèles d’apparence. Plus précisément, le modèle d’apparence de l’objet cible est défini par les quatre caractéristiques suivantes :
En savoir plus

108 En savoir plus

UNE METHODE MULTI-VUE POUR LA RECONSTRUCTION 3D

UNE METHODE MULTI-VUE POUR LA RECONSTRUCTION 3D

Figure II- 1: Corrélation Au haut, les images gauche et droite avec la fenêtre de référence. Au bas, une vue rapprochée des deux fenêtres pariées. Le coefficient de corrélation normalisée n‟est pas la seule mesure de similarité pouvant être utilisée pour effectuer la comparaison de voisinages. D‟autres mesures [88] telles que la somme des différences absolues ou la somme des différences carrées sont également utilisées. Celles-ci sont plutôt appelées mesure de dissimilarité puisqu‟elles évaluent la différence entre deux régions et non pas la similarité comme le coefficient de corrélation normalisée. Dans ces deux cas, on calcule la différence d‟intensité entre les pixels correspondants dans la fenêtre encadrant les voisinages comparés. On effectue ensuite la somme de ces différences (ou du carré de ces différences) pour obtenir le coût associé à cet appariement.
En savoir plus

99 En savoir plus

Dualité entre codage de source et codage de canal

Dualité entre codage de source et codage de canal

Les odes BCH réels furent utilisés pour la ompression de sour e suivant le ritère de délité déni par la distan e de Hamming : l'obtention d'une expression on ise de la fon tion ren[r]

209 En savoir plus

2014 — Codage vidéo basse complexité sans perte de qualité visuelle supportant les résolutions HD sur le DSP asynchrone Opus d'Octasic

2014 — Codage vidéo basse complexité sans perte de qualité visuelle supportant les résolutions HD sur le DSP asynchrone Opus d'Octasic

Ces trois modes sont constitués d’un mode sans perte supplémenté de deux modes avec perte : le mode avec perte calculée favorisant la qualité visuelle et le mode avec perte rapide favori[r]

137 En savoir plus

L’ocularisation vidéoludique : une typologie des points de vue à l’intérieur des phases interactives dans les jeux vidéo tridimensionnels

L’ocularisation vidéoludique : une typologie des points de vue à l’intérieur des phases interactives dans les jeux vidéo tridimensionnels

52 toutes les directions, mais ne peut viser verticalement. Le jeu développé par Atari était tout de même révolutionnaire pour l’époque, ne serait-ce que dans sa liberté de mouvement et sa façon de dynamiser le hors-champ. Les engins ennemis peuvent arriver par-derrière et ainsi, le joueur doit faire attention à cette section du monde virtuel, y jeter un coup d’œil de temps en temps pour localiser la menace et se retourner rapidement lorsque nécessaire (Wolf 1997, p. 20). L’influence de Battlezone sur la façon d’explorer visuellement l’espace vidéoludique s’est grandement fait ressentir dans les jeux de tir à la première personne. Alors que Wolfenstein 3D et Doom ne permettaient pas encore eux non plus de viser vers le bas et le haut (ce qui était par exemple problématique dans les escaliers de Doom), Quake permet de lever et baisser le point de vue. Deux parties de l’interface vidéoludique ont été développées pour justement contrôler le déplacement et la rotation de la caméra virtuelle : la souris et le clavier pour l’ordinateur et deux joysticks pour la console. Toujours dans les jeux de tir à la première personne, une visée fixe apparaîtra au centre de l’écran et sera contrôlée en adéquation avec le point de vue (la visée et le regard sont rattachés) (Beil, p. 127). Cette configuration est fonctionnelle et non réaliste. En réalité, une personne peut regarder dans une autre direction que celle où pointe son arme. Cela dit, en jeu vidéo, contrôler la visée indépendamment du regard de l’avatar serait complexe puisqu’il faudrait ajouter dans une certaine mesure un troisième joystick, ce qui rendrait la prise en main très complexe. 26
En savoir plus

138 En savoir plus

Codage par descriptions multiples

Codage par descriptions multiples

3 Embedded Block Coding with Optimized Truncation JPEG Pro gressif La norme JPEG {Joint Photographie Experts Group) est un codage d'image avec compression d'information basée sur la DCT. Un découpage du support de l'image en blocs de taille fixe (8x8 ou 16x16) est préalablement effectué avant d'appliquer la DCT. Dans le mode de codage avec perte, la compression est réalisée lors de l'étape de quantification. Les éléments issus de la DCT sont organisés selon une séquence 1-D par un balayage zig-zag à partir de l'élément aoo représentant la composante continue (élément DC). Le résultat de la DCT concentre l'énergie du signal de départ sur quelques éléments liés aux basses fréquences. Les éléments considérés comme moins importants (caractérisant les moyennes et hautes fréquences de l'image noté AC) ont en général des valeurs plus faibles et peuvent donc être quantifiés grossièrement même éventuellement supprimés. La norme JPEG utilise cette transformation DCT ainsi qu'une loi de quantification uniforme propre à chaque élément et un codage entropique des éléments quantifiés.
En savoir plus

84 En savoir plus

Codage audio stéréo avancé

Codage audio stéréo avancé

termes, ce mode de représentation peut être très intéressant pour classifier les signaux stéréo et une étude approfondie de cette possibilité serait probablement intéressante. 6.2 Avenir du codage audio spatial et pistes d’améliorations Hormis la technique de codage stéréo mixte introduite dans MPEG USAC (5), il n’y a pas eu de récentes innovations conceptuelles pour le codage des signaux multicanaux dont on n’a pas d’information a priori. Au-delà de la complexité de mettre au point des tech- niques suffisamment généralistes pour fonctionner sur tout type de signaux multicanaux, nous pensons qu’il n’y a plus vraiment de besoins impérieux pour des codeurs multicanaux à très bas débit de meilleur qualité. Même si le modèle paramétrique ne permet pas d’at- teindre la transparence sur la majorité des extraits stéréos, l’augmentation exponentielle des capacités de stockage et de la bande passante des réseaux ces dix dernières années incitent à utiliser simplement plus de débit lorsqu’une qualité supérieure est requise. Dans d’autres domaines comme le codage conversationnel, cette course aux bas débits reste plus actuelle. Par exemple, on peut citer les récents travaux sur les audioconférences spatialisées qui utilisent un représentation paramétrique de la spatialisation de type BCC [BF03].
En savoir plus

138 En savoir plus

MoVAL : Modélisation multipoints de vue /multi-granularités d'architectures logicielles

MoVAL : Modélisation multipoints de vue /multi-granularités d'architectures logicielles

L’objectif de ce chapitre est de présenter une nouvelle approche d’architecture logicielle hiérarchique mul- tipoints de vue qui répond aux limitations des approches existantes présentées au chapitre précédent. Au début, nous commençons par la définition des objectifs de notre travail et notre positionnement par rap- port aux autres travaux. Ensuite, nous présentons un cas d’étude d’un système Web de ventes électronique (SWVE) sur lequel nous allons appliquer notre approche pour démontrer sa validité. Après, nous présentons notre approche MoVAL (Model, View, and Abstraction level based software architecture), et nous définis- sons ses concepts de base et les extensions apportées. Puis, nous présentons successivement le méta-modèle, la configuration architecturale et un catalogue de points de vue que nous avons proposé.
En savoir plus

148 En savoir plus

Protocole de codage microsyntaxique

Protocole de codage microsyntaxique

Les conjoints sont dans une relation paradigmatique : nous attachons l’un des conjoints au gouverneur de l’entassement, mais les autres conjoints peuvent commuter avec lui et héritent [r]

57 En savoir plus

Détournements multi-supports d’une licence de jeu vidéo : le cas de Halo

Détournements multi-supports d’une licence de jeu vidéo : le cas de Halo

4 Néanmoins, cette formalisation des pratiques est bien loin de déboucher sur la production d’œuvres figées et de codes prescriptifs, ceux-ci ne cessant d’être modifiés, enrichis ou renégociés. Les productions dérivées semblent – en d’autres termes – appeler elles-mêmes au braconnage, à la réappropriation. Il s’agit là du troisième mouvement propre à la pratique du détournement que nous dégageons (sans lequel celle-ci risque d’être érigée en norme et de perdre sa force expressive) : un mouvement de résurgence du play, qui vient déconstruire les œuvres et les codes nouvellement produits. Ainsi, bien que les supports que sont le texte et la vidéo se caractérisent par une certaine permanence (par opposition à la variabilité et à l’interactivité du support vidéoludique), l’on peut observer, dans les créations dérivées, une dissolution des frontières du texte (au sens large du terme), une mise en question de sa fermeture et de son intégrité. Nous aborderons ce dernier point à travers trois analyses (respectivement : d’une fanfiction, d’un machinima et d’un speedrun) qui viendront exemplifier trois formes possibles de cette déconstruction : l’ouverture du détournement vers le lecteur (son interactivité), l’ouverture de la fiction représentée vers les pratiques réelles des joueurs (sa dimension métaleptique) et le caractère non permanent des textes étudiés (leur dimension événementielle et variable).
En savoir plus

5 En savoir plus

L'hypervisibilité de Bayonetta et la vue subjective de Portal et Mirror's Edge : politique des représentations de l'héroïne de jeux vidéo

L'hypervisibilité de Bayonetta et la vue subjective de Portal et Mirror's Edge : politique des représentations de l'héroïne de jeux vidéo

Malgré des rôles parfois fort figés comme ceux des demoiselles en danger ou des adjuvantes, certains personnages féminins de jeux vidéo sont représentés de manière plus complexe, bien qu'ambivalente. C'est notamment le cas de trois jeux vidéo : Portal (2007), Mirror's Edge (2008) et Bayonetta (2010), qui, en dépit de leurs différences, sont aujourd'hui l'objet d'appropriations féministes et s'affichent régulièrement comme exemples alternatifs, face à une représentation genrée qui peine à s'émanciper de figures stéréotypiques. Portal et Mirror's Edge proposent tous deux d'incarner une héroïne dont le corps disparaît au profit d'une vue subjective, où le joueur ou la joueuse est censé-e « incarner » le personnage. Le jeu Bayonetta mène quant à lui une stratégie inverse en proposant une « hypervisibilité » du corps de l'héroïne, qui exagère les stéréotypes de genre rencontrés dans d'autres jeux vidéo. A travers ces exemples, nous étudierons la politique des représentations à l’œuvre au sein de ces jeux, en nous penchant notamment sur les relations que ces héroïnes entretiennent avec le regard des joueurs et joueuses. Nous nous pencherons sur la représentation de ces héroïnes à travers l’articulation de leur rôle, de leur image et du gameplay(1) proposé par le jeu. Cette analyse suppose de ne pas considérer le jeu vidéo comme une image fixe et de prendre en compte différentes données comme le character design de l’héroïne, la narration et les dialogues du jeu, ainsi que les actions et objectifs proposés. Une fois les modalités de l’interaction entre le jeu et le joueur ou la joueuse identifiées, nous pourrons interroger la manière dont sont représentées ces trois héroïnes.
En savoir plus

10 En savoir plus

Codage vidéo flexible par association d'un décodeur intelligent et d'un encodeur basé optimisation débit-distorsion

Codage vidéo flexible par association d'un décodeur intelligent et d'un encodeur basé optimisation débit-distorsion

A titre d’illustration de cette analyse, nous avons représenté sur la figure 2.7 les champs de vecteurs de deux images successives de la séquence Runners 720p qui a été codée avec un encodeur H.264/AVC à débit suffisamment élevé (QP =22) pour avoir un nombre de vecteurs significatifs sans avoir trop de macroblocs Intra. La figure (a) correspond à une image antérieure à l’image de la figure (b). Les images sont quadrillées en macroblocs qui sont eux-mêmes éventuellement partitionnés selon le choix de codage réalisé et un vecteur par partition Inter est représenté en rouge avec pour origine la pointe fine (les zones sans vecteurs correspondent à des zones codées en Intra). La séquence considérée est intéressante pour étudier le mouvement, elle est constituée de coureurs allant de la droite de l’image vers la gauche et situés à différentes distances de la caméra avec deux types de mouvement, l’un global qui est dirigé horizontalement dans le sens droite vers gauche et d’autres mouvements plus locaux correspondant à certaines parties du corps des coureurs (mains et pieds notamment). Nous observons tout d’abord la très forte corrélation entre les vecteurs voisins au sein des deux images respectives, en particulier pour les nombreuses zones correspondant au mouvement global. Environ deux tiers des vecteurs de l’image ont ainsi la même direction et le même sens, seul la norme du vecteur varie légèrement selon la vitesse associée aux différentes zones. Les vecteurs correspon- dant aux mouvements plus locaux sont pour leur part significativement différents des vecteurs voisins spatialement mais ils se retrouvent dans l’image précédente pour des blocs relativement proches du bloc colocalisé. C’est en particulier le cas pour les pieds du coureur au premier plan et les jambes ainsi que le bras du second coureur. Ces champs de mouvement sont très corrélés entre les deux images et peuvent être pronostiqué en prolongeant les vecteurs localement.
En savoir plus

267 En savoir plus

Show all 7610 documents...