Determinants de la fixation du prix des maisons d'habitation a Bukavupar François KAJEMBA Université catholique de Bukavu - Licence en gestion financière 2014 |
CHAPITRE I : REVUE DE LA LITTERATURECe chapitre est articulé autour de deux sections. La première porte sur la revue théorique et la deuxième sur les études empiriques relatives à l'objet de l'étude. I.1 REVUE THEORIQUE Cette section présente différentes théories dans lesquelles nous pouvons envisager les hypothèses et les propositions des déterminants de la fixation du prix des maisons d'habitations. I.1.1 Théorie de la valeur et du prix L'évaluation d'un bien immobilier diffère selon qu'il s'agit de la réalisation immédiate d'une vente, soit de sa valorisation pour être inscrit au bilan d'une entreprise ou d'y appliquer un impôt ou une assurance pour les particuliers. Ceci fait supposer à priori qu'il n'existe pas un seul prix mais plusieurs pour un immeuble déterminé. Cette question de la valeur plurale des actifs fait distinguer deux blocs où pour certains la signification du prix et celle de la valeur diffère et d'autres soulignant que le prix obtenu sur un marché est le seul indicateur fiable de la valeur. D'un côté, c'est avec Adam Smith(1776), puis David Ricardo(1817) que se constitue une véritable théorie de la valeur dont le but est de parvenir à construire une explication des prix. La difficulté d'une entreprise, comme le rappelle Mouchot (1994), sera alors double, d'une part, il s'agira d'expliquer la distinction entre valeur d'usage et valeur d'échange, et, d'autre part de répondre à la question : quelle est la source de la valeur : la rareté, le travail, ou les deux à la fois ? Adam Smith(1776) émet une double hypothèse sur cette origine. La première s'applique à un état primitif où il n'y a pas accumulation des capitaux et appropriation du sol, et c'est uniquement la quantité de travail incorporée dans la production d'un bien qui déterminera sa valeur. La seconde concerne un état avancé de la société, où certains individus ont accumulé des capitaux et sont devenus propriétaires terriens, la valeur devra tenir compte de la rémunération de l'ensemble des facteurs de production. En d'autres termes, la valeur d'un bien équivaudra à la somme des salaires 6 (prix du travail), des profits (rémunération du capital) et de la rente (loyer de la terre). Parallèlement, il différencie le « prix naturel » qui est le point central vers lequel gravitent continuellement les prix de toutes les marchandises et le « prix de marché », prix actuel auquel une marchandise se vend communément. Ce dernier peut être au-dessus, en dessous ou précisément au niveau du prix naturel. De ce fait, Smith(1776) reconnaît que le bien économique peut être appréhendé de manière subjective par la satisfaction qu'il procure, et c'est la notion de valeur d'usage, ou de manière objective à partir de la quantité de bien échangé qui détermine la notion de valeur d'échange. Mais du fait de son caractère subjectif « donc non-communicable en un langage intelligible» (Walras, 1874), la valeur d'usage ne sera donc pas prise en compte dans la théorie de la valeur. Dans le but de pouvoir mesurer la valeur du Produit National Brut anglais que David Ricardo(1817) élabore sa théorie de la valeur en opposant les biens rares des biens non rares. S'agissant des premiers leur valeur dépend surtout de leur rareté. Pour les seconds dont la quantité peut s'accroître par « l'industrie de l'homme et dont la production est encouragée par une concurrence libre de toute entrave », la valeur ne dépendra pas seulement d'un échange particulier, mais surtout de la quantité de travail nécessaire à la production de ce bien. Tout en reconnaissant l'importance du marché, il estime que le profit et la rente sont des connaissances de la valeur et non pas des causes de celle-ci et que par conséquent il ne faut pas en tenir compte pour son calcul. De l'autre côté, Léon Walras(1874) et les théoriciens de la rareté montre que la valeur d'échange se détermine sur le marché. Pour eux, c'est la demande qui est essentielle car elle « doit être considérée comme le fait principal, et l'offre comme un fait accessoire. On n'offre pas pour offrir, on offre que parce qu'on ne peut pas demander sans offrir; l'offre n'est qu'une conséquence de la demande». Le prix résulte d'un état d'équilibre général, c'est-à-dire au moment où le profit pur est nul, où l'entrepreneur disparaît. « Ils subsistent alors non comme entrepreneurs mais comme propriétaires fonciers, travailleurs ou capitalistes dans leurs propres entreprises ou dans d'autres ». 7 Plus précisément d'un côté, Smith précise que la valeur se mesure par le travail commandé, ou travail que la possession d'un bien permet d'acheter ; Ricardo par le travail incorporé dans le processus de production ; ou encore par le temps de travail socialement nécessaire à sa production pour Marx. Sous cet angle la valeur d'un bien mesurée en travail correspond alors à son prix naturel, prix reflétant le véritable coût de production. Le prix naturel est alors distinct du prix de marché ou prix effectif, observable dans l'échange. Et de l'autre côté Walras et Pareto s'accordent à la théorie de la richesse sociale qui rassemble toutes les choses, matérielles ou immatérielles, qui sont susceptibles d'avoir un prix parce qu'elles sont rares, c'est-à-dire à la fois utiles et limitées en quantité. Ainsi donc la valeur d'un bien, pour ces derniers, dépendra de son niveau de rareté et c'est cette dernière qui exprimera le prix du bien considéré. Il s'observe alors que L'analyse de la valeur d'un bien se réduit à celle de sa forme phénoménale, c'est-à-dire de son prix effectif observable dans l'échange. Le courant néo-classique propose une théorie de la formation des prix, résumée par Debreu (1959), qui est directement fondé sur l'utilité que les agents retirent de la consommation des différents biens il s'agit de la valeur-utilité: les goûts ou préférences de chaque individu sont représentés par une fonction permettant à ce dernier de classer des ensembles de biens selon l'utilité qu'ils lui procurent. Il détermine alors sa demande de chaque bien en maximisant cette utilité. C'est ensuite la confrontation de la demande globale qui somme des demandes individuelles avec l'offre globale qui permettra alors l'établissement du prix. Ainsi, la distinction entre valeur d'usage et valeur d'échange, introduite initialement par Smith est abandonnée : la valeur d'échange d'un bien est identifiée à son prix alors que la valeur d'usage renvoie au concept d'utilité; avec le développement de la théorie néo-classique et l'ancrage de la détermination des prix dans la notion d'utilité, l'opposition entre les deux notions perd toute pertinence. 8 I.1.2 Choix résidentiel des ménages Le terme « choix résidentiels » désigne la stratégie adoptée par le ménage en vue de prendre une décision de mobilité et de localisation résidentielle. Le prix du foncier et le choix de localisation sont étroitement liées, étant données que les interactions entre les marchés urbains, et l'examen des accessibilités relie ces deux questions en discussion (Homocianu, 2009). L'objectif de cette section est donc d'analyser le comportement des ménages comme principal facteur de la fixation des prix des maisons, analyse qui va nous amener vers l'étude du fondement de l'approche hédonique qui permet de comprendre le caractère hétérogène des biens immobiliers. I.1.2.1 La théorie de la microéconomie urbaine La théorie de la microéconomie urbaine offre des éléments très intéressants pour la compréhension des interactions dans le cadre du fonctionnement urbain global. Les contributions de Von Thünen (1826), Wingo (1961) et Alonso (1964) constituent les travaux fondateurs de ce champ, et cette direction a été continuée et développée par le courant de la Nouvelle Economie Urbaine. Cette approche se préoccupe notamment des comportements des ménages en termes de choix de localisation résidentielle et de formation du prix foncier. Alonso (1964) propose une transposition de la théorie de la localisation agricole de Von Thünen à la localisation résidentielle et des firmes urbaines, pour expliquer le fonctionnement interne de la ville. Pour cela, il construit une approche économique dans laquelle il cherche à relier la rente foncière à l'utilisation des sols. Le modèle d'Alonso (1964) se base sur un certain nombre d'hypothèses ayant un caractère très réducteur. Ainsi, la ville est considérée circulaire, mono centrique et implantée sur une plaine isotrope2. Le modèle mono centrique s'appuie sur l'hypothèse de base selon laquelle dans la ville, le centre attire la plupart de l'activité 2 Terme qualifiant les corps, les milieux, dont les propriétés sont semblables quelles que soient les directions. 9 (l'emploi) de sa région et le résidentiel est situé autour de ce centre. Une autre hypothèse de cette théorie est que les décisions de localisation résidentielle et le prix des immobiliers sont une fonction de l'accessibilité - coût de transport, du coût du terrain et du revenu du ménage. Selon la logique proposée par Alonso, dans le jeu du marché résidentiel, les résidents sont en compétition pour les différentes zones, en accord avec leur disponibilité à payer pour accéder à ces zones (« bid rent theory »). La localisation des différents groupes relativement homogènes de la population doit être en accord avec le gradient de leur courbe« bid rent ». Les valeurs foncières résultent d'un arbitrage entre les coûts de transport et l'accessibilité. Les coûts de transport augmentent avec la distance au centre d'emploi (« central business district ») et sont identiques pour l'ensemble des ménages suburbains, et donc les rentes et les densités diminuent avec la distance au centre. L'augmentation des coûts de transport entraîne un accroissement de la pente de la rente de marché et une réduction de la taille de la ville. Inversement, lorsque les coûts de transport diminuent, la pente de la rente s'aplati, et la taille de la ville de la ville augmente, l'amélioration des transports abaissant les valeurs foncières au centre tout en les augmentant à la périphérie, ce qui favorise l'urbanisation de nouvelles surfaces. Wingo (1961) dans son approche donne aussi un rôle central aux transports dans le fonctionnement urbain, en considérant que le marché foncier est conditionné par les transports urbains. Son apport essentiel c'est la prise en compte dans le modèle d'un coût généralisé de transport au lieu d'un coût de transport fonction linéaire de la distance au centre. Ce coût généralisé reflète l'ensemble des dépenses monétaires de transport et la valeur attribuée au temps de trajet. Il arrive à la conclusion que l'amélioration du réseau de transport entraîne une diminution des valeurs foncières et des densités résidentielles et une extension de la ville. Face au caractère réducteur des hypothèses de ces modèles, divers auteurs ont tenté d'apporter des améliorations, enlevant certaines hypothèses, comme Mills (1967) qui a introduit dans son modèle le secteur des transports en tant que secteur de 10 production, ensuite Anas et Shyong Duann (1985) ont essayé d'intégrer l'effet de capitalisation du réseau de transport dans les biens fonciers et immobiliers, dans un modèle qui avait comme objectif de rendre compte de l'impact d'une amélioration des transports sur les valeurs des biens immobiliers en milieu urbain, Ryan (1999) à son tour a souligné aussi que les hypothèses faites sur les coûts de transport et les distances dans le modèle initial sont valables que si les villes sont supposées mono centriques, et que les villes polycentriques génèrent des schémas de déplacement difficilement prévisibles dans la mesure où les dessertes offertes par l'infrastructure peuvent ne pas satisfaire les besoins de certaines catégories de ménages ou de firmes. Dans ce cas, il est possible que les coûts de transport et la distance à l'infrastructure ne soient pas corrélés. De la Barra(1989) a identifié certaines limites des hypothèses simplificatrices évoquées ci-haut de l'approche de la microéconomie. Pour lui, les consommateurs et les producteurs sont supposés disposer d'une information parfaite sur les conditions du marché, ils ont une mobilité à faible coût et peuvent apparaître et disparaître sans coûts, les fonctions d'utilité sont supposées déterministes, l'approche est trop agrégée (on raisonne sur un individu moyen) et a un caractère statique. Les études de Boyce et alii (1972), Dornbusch (1976) et Lerman (1977) ont montré que le facteur transport a une influence relativement réduite, mais statistiquement significative sur le prix de l'immobilier. D'autre part, les études empiriques de Mayo (1973), Friedman (1975) et Pollakowski (1975) cités par Homocianu(2009), qui ont examiné l'impact des facteurs socio-économiques et du niveau des services publics sur les décisions de localisation des ménages, ont conclu que le niveau des services d'éducation et récréation ont, généralement, une moindre importance sur les choix de localisation que l'accessibilité à l'emploi, et que l'effet de l'accessibilité est conditionné par des attributs comme la taille et le revenu des ménages. Ils ont aussi montré que le degré de motorisation des ménages a une influence sur les décisions de localisation résidentielle 11 Malgré cela, les éléments de cette approche constituent, dans une mesure plus ou moins importante, les fondements théoriques pour les analyses et les modèles interactifs transport-urbanisme. Les modèles de la microéconomie urbaine apportent des éclairages essentiels sur le comportement des agents économiques dans la ville, sur les déterminants des choix de localisation des ménages ou sur l'impact des transports sur les formes urbaines relatif à la formation des prix immobiliers. Une autre approche alternatives à celle d'Alonso, qui avait un caractère déterministe et faisait l'hypothèse d'une ville mono centrique a été proposée par McFadden (1978) et Anas (1982) et elle est fondée sur la théorie de l'utilité aléatoire. I.1.2.2 La théorie de l'utilité aléatoire L'approche de l'utilité aléatoire, qui est apparue suite aux travaux sur la théorie des fonctions d'utilité aléatoire et des choix discrets est, en fait, l'adaptation de la théorie classique du consommateur au champ des choix discrets, et vise à donner un caractère plus réaliste aux modèles de la microéconomie urbaine. Dans les modèles standards, on considère une fonction d'utilité de l'individu (consommateur) représentant ses préférences qui est de type déterministe, en accord avec la théorie économique néoclassique, qui suppose que l'individu dispose d'un pouvoir discriminant parfait qui lui permet de déterminer sa préférence de manière certaine et cohérente. On fait aussi l'hypothèse qu'il existe une règle de décision de l'individu qui est stable. Or, en réalité, même si les individus sont dans des situations identiques, leurs choix ne sont pas uniformément rationnels, ni répétitifs. Il est nécessaire donc de prendre en compte la dispersion des préférences individuelles, qui est à l'origine de la variabilité des choix. Une approche alternative proposée par McFadden (1978) et Anas (1982) considère la probabilité qu'un ménage choisisse un type de maison comme une fonction des 12 caractéristiques du bien, des caractéristiques du ménage et des caractéristiques du voisinage où le bien est localisé, y compris l'accessibilité. Cette approche vise à construire des modèles plus réalistes, cherchant à dépasser les hypothèses trop simplificatrices des modèles de la microéconomie urbaine, comme celle d'une information parfaite des consommateurs et producteurs sur le marché, le caractère déterministe de la fonction d'utilité des demandeurs, le caractère trop agrégé de ces modèles. Les modèles de choix discrets sont des modèles probabilistes, qui permettent de prendre en compte l'existence d'une diversité de préférences individuelles. La logique de ces modèles est la suivante : un individu, qui doit choisir une zone de localisation résidentielle parmi un ensemble d'alternatives, attribue à chaque localisation une fonction d'utilité, définie comme une fonction des attributs de la zone (accessibilité, environnement), et sélectionne la localisation qui maximise l'utilité. L'utilité d'un agent face à une alternative contient donc une composante déterministe, exprimée par les attributs de la zone et les caractéristiques de l'agent, et une composante aléatoire, reflétant les éléments de subjectivité des agents. Dans cette approche McFadden(1978) montre que l'ensemble de la population est partitionnée en segments en fonction de différentes caractéristiques socio-économiques, dans chaque segment, les individus étant supposés statistiquement identiques. L'utilité de l'individu face à une alternative de choix parmi plusieurs a deux composantes : une composante déterministe, reflétant les caractéristiques de l'alternative et de l'individu, et une composante aléatoire, reflétant les éléments de subjectivité du décideur et les erreurs d'évaluation dues au manque d'information ou à la rationalité limitée de celui-ci. Ces modèles permettent de calculer la probabilité de choix d'une alternative et donc de prévoir le comportement des décideurs, sur la base de certaines hypothèses sur la distribution de la composante aléatoire. Ils se basent sur le principe de la maximisation de l'utilité, selon lequel l'individu prend la décision en choisissant l'alternative qui lui 13 procure la plus forte utilité. La probabilité qu'un consommateur particulier choisisse une alternative est celle que l'utilité de cette alternative pour ce consommateur soit la plus élevée (plus élevée que pour toutes les autres alternatives). De ces théories précédentes il s'observe que l'étude de la mobilité et de la localisation résidentielle doit être conçue comme une analyse des transformations sociales, démographiques, politiques, économiques qui affectent le milieu urbain. De ce point de vue la connaissance des facteurs déterminants des comportements résidentiels des ménages permet de comprendre comment l'homme s'adapte aux changements de la société concernant l'activité économique, la vie privée, le progrès technique, les formes d'urbanisation,... et constitue une étape essentielle dans la modélisation de la formation du prix des maisons d'habitation. I.1.2.3 Déterminants du choix résidentiel des ménages a. La mobilité résidentielle La mobilité résidentielle est fortement liée à des événements familiaux, comme les naissances, les mises en union, les séparations, la retraite professionnelle ou le décès. La fonction principale de la mobilité est le processus par lequel une famille ajuste son logement à ses besoins qui sont générés par les variations de la composition familiale accompagnant le cycle de vie. Par exemple, l'apparition des enfants est un événement, qui fait que le ménage peut avoir besoin de posséder un logement avec une plus grande surface, et ensuite de chercher la proximité à une école. L'ensemble de ces caractéristiques du cycle de vie constitue la base d'un système dynamique résidentiel, et l'élaboration d'une typologie des ménages selon celles-ci va permettre de mettre en évidence ses mécanismes, logiques et interactions internes, qui gouvernent les choix résidentiels des ménages. Un changement de logement peut être aussi motivé par un changement d'emploi (et parfois l'inverse). Le comportement rationnel des ménages consiste à choisir leur lieu de résidence en fonction de la localisation de l'emploi de chacun des membres. Mais Homocianu(2009) montre que la perte ou le changement d'emploi d'un ou de 14 plusieurs membres ne sera pas forcément accompagné par une décision de changement de logement. b. La localisation résidentielle Dans la prise de décision concernant la localisation de leur résidence, les ménages cherchent à maximiser leur satisfaction - ou utilité. Mais cette utilité ressentie par les ménages est en réalité une résultante de plusieurs facteurs : les facteurs subjectifs, qui tiennent des caractéristiques socio-démo-économiques spécifiques à chaque ménage ou catégorie de ménages et des comportements et préférences de ceux-ci en matière de localisation résidentielle, et les facteurs objectifs, qui relèvent des caractéristiques physiques de l'environnement résidentiel (logement, aménités, accessibilités). 1° La relation entre le profil socio-démo-économique des ménages et la localisation résidentielle Concernant le premier groupe de facteurs, qui visent les caractéristiques subjectives, spécifiques aux différents ménages, on va analyser les relations qui existent entre les comportements de localisation des ménages et les variables les caractérisant, comme la catégorie socioprofessionnelle, le revenu, le niveau d'études, la taille du ménage ou le nombre d'enfants, l'âge (comme indicateur du cycle de vie). Ce sont des variables qui pourraient être utilisées pour stratifier les ménages en vue de l'estimation de leurs préférences de localisation. Homocianu(2009) a montré que le comportement des ménages en matière de localisation varie significativement avec la catégorie socioprofessionnelle des individus qui les composent. Dans cette logique, les choix résidentiels des ménages seraient donc de se rapprocher autant que possible de son groupe de référence. La typologie par catégories socioprofessionnelles traduit souvent le statut socioéconomique, synthétisé par deux variables corrélées : le revenu et le niveau d'études. La variable clé, qui est le revenu, est certainement une variable explicative 15 de la décision de localisation résidentielle, que ce soit par le jeu du marché du logement, ou bien par l'influence des interactions sociales. Certains économistes considèrent que le niveau de vie, reflété par le profil socioéconomique des ménages, est déterminant dans leurs choix en matière de localisation résidentielle. On peut évoquer dans ce sens les apports d'Alonso (1964), Mills (1967) et Muth (1969), qui soutiennent l'idée que l'offre et la demande sur le marché du logement expliquent la localisation des ménages aisés et des ménages pauvres dans des lieux différents, ou ceux de Tiebout (1956), selon lequel le jeu d'attraction et de répulsion entre différentes catégories de ménages structure l'espace résidentiel selon le niveau de vie. Par contre, Homocianu (2009) considèrent que ce n'est pas le niveau de vie qui influence le choix du lieu de résidence, mais plutôt l'inverse. Celui-ci accorde une très grande importance aux caractéristiques socio-économiques du quartier, ces dernières influençant, selon eux, plus le revenu des agents que toute considération relative à l'accessibilité aux zones d'emploi. Travers et al. (2013) fait remarquer qu'en France, comme aux Etats-Unis, l'homogénéité des ménages au sein des quartiers est très visible dans le paysage urbain. Ainsi, il est possible de réaliser une typologie des quartiers, séparant les zones dans des classes selon le profil des ménages qui y habitent. Les extensions apportées au modèle standard de l'économie urbaine permettent d'introduire une différenciation dans les caractéristiques des agents économiques, en tenant compte de la composition du ménage (taille ou nombre d'enfants du ménage). Les premiers modèles de localisation, comme celui d'Alonso, Muth et Mills, ne tenaient pas compte de la structure démographique du ménage. Or, un ménage composé d'un nombre important de membres, par exemple, est plus susceptible de choisir une résidence en périphérie, afin de bénéficier d'une plus grande superficie à moindre coût qu'un ménage composé d'un nombre plus réduit de personnes. 16 Hochman et Ofek(1977) vont dans ce sens, en soulignant l'existence d'une corrélation positive entre la taille du ménage et la distance entre le lieu de résidence et le centre. 2° Le lien entre les caractéristiques de l'environnement résidentiel et les choix de localisation résidentielle des ménages La nouvelle théorie du consommateur de Lancaster(1964) met en évidence que le logement (ou la résidence) peut être vu comme un bien multidimensionnel différencié en un ensemble d'attributs variant en quantité et en qualité. Il peut ainsi se décomposer en trois dimensions : ses caractéristiques intrinsèques, les aménités et l'accessibilité, il s'agit de la méthode hédonique3. Lorsqu'un ménage choisit un logement, il tient compte de multiples variables structurelles, soit quantitatives, comme la superficie ou le nombre de pièces de la résidence, ou qualitatives, comme l'âge de l'immeuble (neuf ou ancien). Ces caractéristiques d'un logement se reflètent, en général, dans son prix sur le marché immobilier, ce prix étant également un critère en fonction duquel les ménages font leurs choix résidentiels. L'approche hédonique du prix immobilier repose sur cette hypothèse que le logement est un bien complexe, dont les caractéristiques sont les facteurs déterminants de son prix. Le choix de la localisation résidentielle effectué par les ménages est lié à la qualité de l'environnement social, économique et physique de la zone de résidence. En retour, ces choix individuels déterminent une dynamique de cet environnement. La théorie du flight-from-blight(en français, esquive des externalités négatives) explique la structuration, dans le contexte américain, d'une aire urbaine selon le niveau de revenu, à la lumière des externalités produites par la coexistence sur un territoire donné des ménages appartenant à des classes de revenu différentes. En fait, les interactions entre les différents groupes de ménages dotés de niveaux de revenu différents, qu'elles passent par la fiscalité ou plus généralement par les relations de proximité, sont susceptibles de structurer l'aire urbaine en fonction du niveau de vie 3 Cette approche sera développée dans le point suivant. 17 des ménages. Ainsi, la cohabitation, au centre-ville, entre les classes aisées et les classes à bas revenu, génère des externalités qui incitent les classes aisées à établir leur lieu d'habitation dans la périphérie et ce afin de se soustraire à ces externalités. Il apparaît une représentation de l'aire urbaine qui prend la forme d'une juxtaposition de communes qui sont protégées les unes des autres par l'élaboration de barrières à l'entrée. Les ménages à bas revenu se retrouvent ainsi concentrés dans les villes-centres et isolés du reste de la population. Cette isolation aggrave généralement leur situation en amoindrissant le niveau et/ou la qualité des aménités endogènes dont ils peuvent bénéficier. Ainsi, les ménages à bas revenus sont confrontés à un cercle vicieux, car leur situation de pauvreté est confortée et accentuée par les caractéristiques du quartier dans lequel ils résident. Dans son étude, Zenou (2002) a cherché à prendre en compte l'influence des aménités afin d'expliquer la ségrégation résidentielle. Il conclut que les ménages aisés donnent une plus grande importance à la présence d'aménités que les ménages disposant d'un revenu plus faible. Homocianu(2009) note également que les caractéristiques socio-économiques des quartiers sont en mesure d'influencer les chances que les habitants accèdent à l'emploi, le quartier de résidence, à travers les relations de voisinage, peut conditionner d'autres décisions prises par les ménages ou que les ressources du voisinage peuvent avoir une influence sur la formation du capital humain. Le choix de la localisation des ménages dépend aussi de leurs préférences concernant la qualité de l'environnement résidentiel, traduite en termes de présence d'espaces verts et de loisir et de niveau de pollution de l'air. Thériault, Kestens et Des Rosiers (2002), ont mis en évidence la relation positive qui existe entre des variables comme la présence de la végétation, ou d'un hôtel sur la valeur d'une maison. Les choix de localisation des ménages, mais aussi la valeur des logements, dépendent également de leur proximité aux différentes activités et services de la ville. La présence dans la zone de résidence d'activités économiques, d'établissements d'enseignement ou commerciaux, la proximité au centre et aux grandes infrastructures 18 de transport, le niveau de la densité de la population, sont des facteurs qui vont guider les décisions des ménages de se localiser dans une zone ou une autre, en fonction de leurs besoins et préférences. L'hypothèse de capitalisation des avantages retirés de la localisation résidentielle, tels que les aménités de voisinage ou l'accessibilité aux différents services découlent de nombreux travaux théoriques et empiriques en économie urbaine qui convergent vers l'idée que sur un marché immobilier concurrentiel, les consommateurs enchérissent pour les localisations selon leur propension à payer pour les attributs de localisation et c'est l'enchère maximale qui l'emporte et détermine le prix du marché. La valeur d'un bien est le résultat de l'interaction entre l'offre, et la demande qui reflète les caractéristiques des consommateurs (leurs préférences, revenus). Ainsi de ces théories du choix résidentiel des ménages il s'observe que le logement est en effet un lieu de vie où les individus dorment, mangent, s'instruisent ou encore cohabitent avec d'autres membres de la famille. Bien localisé, il permet aux individus d'avoir accès ou non aux pôles d'emplois, aux services, aux espaces naturels, aux transports collectifs, etc. chaque logement est constitué d'une série des caractéristique internes (nombres des chambres, ...) et externe (accessibilité générale, voisinage,...) et il est ainsi difficile, voire impossible, de trouver deux logements parfaitement identiques. De ce fait, le logement est considéré comme un bien hétérogène et la méthode la plus utilisée pour évaluer le prix de chaque caractéristique est la méthode hédonique, utilisée principalement dans le domaine de l'immobilier pour calculer le rôle des caractéristiques des maisons dans la construction de leur prix. I.1.3 La méthode hédonique La détermination d'un prix à partir de l'offre et de la demande d'un bien suppose qu'il existe des quantités homogènes de ce bien. Lorsqu'on est en présence de biens par nature hétérogènes, comme les immobiliers, la question se pose de savoir si toute la théorie micro-économique traditionnelle peut s'appliquer. Le problème réside dans la prise en compte de la différenciation des biens dans l'analyse du comportement du 19 consommateur et le débat porte notamment sur la permanence ou la transformation dans le temps de ses préférences. I.1.3.1 Théorie traditionnelle de la consommation Les biens sont les objets que le consommateur considère comme tels, c'est-à-dire ceux dont il souhaite posséder davantage. Le bien économique ainsi conçu n'a d'existence qu'en tant qu'équivalent d'une certaine quantité d'autres biens, deux quantités quelconques étant équivalentes ou échangeables si elles ont la même valeur. La pauvreté du concept, notamment l'incapacité à prendre naturellement en compte l'apparition de biens nouveaux ou les variations de qualité des biens existants aboutit à l'impossibilité de construire une théorie de la demande tant qu'on ne précise pas de quelle manière les biens participent à la satisfaction de ces besoins. I.1.3.2 Théorie de Lancaster L'hypothèse d'homogénéité des biens est particulièrement réductrice, notamment lorsqu'on s'intéresse aux biens durables. Aussi, la reformulation de la théorie de la consommation dite « Nouvelle Théorie du Consommateur » a ouvert de nouvelles perspectives. C'est à Lancaster(1964) que revient le mérite de cette reformulation à partir de la synthèse d'un certain nombre de questions posées par la prise en compte de l'hétérogénéité des biens dans l'analyse du comportement du consommateur. Cette nouvelle théorie repose sur la prise en considération des attributs, ou caractéristiques des biens déterminant leur qualité. Lancaster propose de renouveler la notion de bien, en posant que les consommateurs tirent leur utilité des caractéristiques des biens, et non pas des biens eux-mêmes, ce qui signifie aussi que les biens ne sont pas désirés pour eux-mêmes, mais pour les services qu'ils rendent. Dès lors, ce n'est plus l'offre et la demande d'un bien qui détermine son prix, mais l'offre et la demande pour les caractéristiques qu'il contient. L'analyse hédoniste ou hédonique des prix, dont l'objet est d'étudier la formation du prix des biens complexes, exploite cette hypothèse, et explique le prix des biens par leurs caractéristiques. 20 I.1.3.3 Modèle de S. Rosen sur la demande de caractéristique Rosen (1974) a permis le développement des analyses hédonistes en définissant les hypothèses et en proposant un modèle d'équilibre sur un marché de biens hétérogènes explicitant les fonctions d'offre et de demande pour les caractéristiques de ces biens. Les hypothèses sont les suivantes : ? Les caractéristiques sont objectivement mesurables et les biens en nombre suffisant pour que les transactions portent sur l'ensemble de ces caractéristiques, le bien étant un ensemble « non dénouable » de caractéristiques. En effet, si les caractéristiques sont définies de façon « objective », elles se présentent de façon identique pour tous les consommateurs, ce qui permet de les définir comme des biens. ? La structure des prix est un paramètre, c'est-à-dire une grandeur mesurable, pour les acheteurs comme pour les vendeurs. L'équilibre de marché est atteint lorsque le prix permet de faire correspondre pour l'ensemble des caractéristiques les quantités demandées aux quantités offertes. Mais le modèle de Rosen permet aussi d'établir que la fonction hédonique des prix ne peut être assimilée à une fonction de demande et indique la voie à suivre pour parvenir à déduire les fonctions de demande recherchées des informations fournies par le marché. Cela signifie que dans la composition du modèle n'entrent que des caractéristiques du bien et non celles qui correspondent à la demande tels : le revenu, la taille du ménage ou les préférences des acquéreurs. Pour identifier les fonctions de demande de caractéristiques deux étapes sont nécessaires. La première consiste à estimer la fonction hédonique des prix, d'où l'on déduit, pour chaque observation de l'échantillon, les prix marginaux des caractéristiques. La seconde conduit à l'identification des fonctions de demande en introduisant les prix marginaux comme variables dépendantes dans les fonctions d'enchère pour les différentes caractéristiques. Suivant Alonso, une courbe d'enchères sur deux caractéristiques du logement comme la quantité de sol et la distance au centre, correspondra à « l'ensemble des prix du sol que l'individu accepte de payer à différentes distances du centre, en laissant son niveau de satisfaction constant » 21 Plusieurs études ont utilisé cette méthode dans l'estimation des prix en se basant sur les différentes caractéristiques du bien. 22 I.2 REVUE EMPIRIQUE Cette section présente quelques études analogues à notre recherche et dont les résultats nous sont d'une importance incommensurable. Partant toujours du modèle initial théorique d'Alonso (1964) proposant une transposition de la théorie de la localisation agricole de Von Thünen (1826) à la localisation résidentielle et des firmes urbaines, pour expliquer le fonctionnement interne de la ville. En se basant sur deux hypothèses, la première portant sur le modèle mono centrique selon laquelle dans la ville, le centre attire la plus part de l'activité (l'emploi) de sa région et le résidentiel est situé autour de ce centre. Une autre hypothèse montrant que les coûts de transport augmentent avec la distance au centre d'emploi et sont identiques pour l'ensemble des ménages suburbains, et donc les rentes et les densités diminuent avec la distance au centre. Pour Ryan (1999) les hypothèses faites sur les coûts de transport et les distances dans le modèle initial d'Alonso sont valables que si les villes sont supposées mono centriques. Les villes polycentriques génèrent des schémas de déplacement difficilement prévisibles dans la mesure où les dessertes offertes par l'infrastructure peuvent ne pas satisfaire les besoins de certaines catégories de ménages ou de firmes. Dans ce cas, il est possible que les coûts de transport et la distance à l'infrastructure ne soient pas corrélés. Travers et al(2013) voulant dépasser le modèle urbain proposé par Alonso(1964) qui n'était pas adapté aux villes polycentriques comme la France, introduisent le rôle des aménités4 urbaines permettant d'améliorer la compréhension du choix résidentiel des ménages. Dans la ville d'Angers, sur base de 1 016 appartement vendus en 2004 et 2005, par la méthode hédonique des prix et la méthode des moindres carrés ordinaires corrigée de la méthode FGS2SLS5 ( Feasible Generalized Spatial Two Least Squares) qui tient compte du double caractère spatial et endogènes des caractéristiques des logements, montre que la proximité d'un logement par rapport à un axe routier majeur (autoroute, rocade, etc) agit négativement et de manière significative sur le 4 Une aménité est une caractéristique géographiquement localisée agissant de manière positive sur les agents économiques, il s'agit entre autres de : la forêt, la qualité de l'air, des services publics de qualités, espaces verts, monuments historiques, présence d'un restaurant ou d'un hôtel, le charme du quartier, etc. 5 FGS2SLS est une méthode combinant à la fois la méthode des variables instrumentales pour prendre en compte l'autocorrélation spatiale de la variable expliquée et des variables endogènes et la méthodes des moments généralisés pour corriger l'autocorrélation spatiale des erreurs. 23 prix par rapport à cette distance, c'est-à-dire que les nuisances associées à ces infrastructures routières l'emportent sur les avantages qu'elles apportent en termes d'accessibilité. Et enfin les caractéristiques extrinsèques agissent globalement positives et significatives sur le prix du logement. Mais ce modèle ne tient pas compte de la présence des aménités non localisées en ville et pourtant recherchées par les ménages telles que les forêts. Ces résultats coïncident avec ceux de Dantas et al(2010) qui ont mené une étude dont l'objectif était de relever les effets du zonage6 sur le prix immobilier, dans le bassin d'Arcachon (Sud-ouest de la France), qui connait une forte attractivité résidentielle et touristique. Sur base de 2 287 transactions de logement entre 2000 et 2006, ont estimé un modèle hédoniste par la méthode des moindres carrés ordinaires avec correction de l'autocorrélation spatiale, et de l'héteroscedasticité spatiale corrigée à l'aide des méthodes de simulation bayésiennes, montrent que les zones d'urbanisation futures ont un effet dépréciatif sur le prix des immobiliers et la proximité aux aménités renchérissent les prix des immobiliers; les aménités naturelles protégées ont un effet appréciatif, à condition de ne pas servir de support à une exploitation agricole ou forestière. Mais cette étude ne montre pas la relation inverse, c'est-à-dire l'influence du prix immobilier sur le type de zonage. Ainsi Brossard et al(2005) dans leur étude dont l'objet était d'évaluer le paysage qui s'offre depuis une maison et son impact sur le prix global de cette dernière, montre, au moyen d'une régression multiple du type logarithmique et de la méthode à effet aléatoire et des doubles différences avec deux groupes, le groupe appartenant à un lotissement et le groupe hors lotissement; ainsi que des images satellites et un modèle numérique de terrain afin de reconstituer le champ de vision et les objets qui s'y trouvent par des méthodes trigonométriques et multi- échelles, que les prix hédonistes obtenus à partir de 4 050 transactions immobilières de la région de Dijon entre 1995 et 2002 diffèrent avec celui de sa banlieue où ils sont souvent voisins de zéro, avec la ceinture périurbaine d'une quarantaine de kilomètres. Dans cette dernière les résultats 6 Le zonage est la règlementation organisant la répartition d'un territoire en zones et fixant pour chacune d'elles le genre et les conditions de l'utilisation du sol. 24 montrent que les forêts et l'agriculture ont des prix positifs et celui des routes est négatif lorsque ces objets sont à proximité immédiate des maisons, mais ces prix sont voisins de zéro lorsque ces objets sont situés au-delà de quelques dizaines ou centaines de mètres, ainsi que lorsqu'ils existent près des habitations mais qu'ils ne sont pas visibles. La composition paysagère dans des formes complexes ou fragmentées a également un prix positif dans la ceinture périurbaine. Au-delà de 100 à 200 mètres, l'existence de plans des visions ou leur contenu n'influencent pas les prix des maisons. Aussi Loung et Boucq(2011) dans leur une étude visant à évaluer l'impact d'une politique de transport en commun sur les prix des immobiliers résidentiels dans la ville de Paris, au moyen d'un échantillon de 162 032 transactions réalisées entre 2002 et 2008, Après une analyse descriptive et la modélisation hédonique par la MCO de forme linéaire et logarithmique ainsi que la régression logistique7 du type logit multinomial , montrent une valorisation de 5% des immeubles situés entre 200 et 400 mètres de l'infrastructure induite par le transport en commun mais qui n'est pas significativement différente de zéro. Ne montrant pas la décision des ménages situés à moins de 200 mètres qui cette politique peut constituer une désaménité et par conséquent la baisse du prix. Shrikhum(2012) à son tour dans son étude visant à évaluer les biens immobiliers en présence d'une dépendance spatiale des prix avec le traitement de l'autocorrélation spatiale dans douze plus agglomérations urbaines de France afin de relever le quartier dominant8 de chaque ville comme déterminant de choix de l'investissement immobilier. Au moyen de 216 664 transactions des appartements entre 1998 et 2007 analysée avec la statistique descriptive en menant une méthode comparative dans l'analyse entre la géostatique et l'économétrie spatiale par le modèle hédonique des prix, conclut que le centre-ville apparait comme la zone dominante du marché immobilier de 9 villes sur 12 de France. Montre encore que le prix moyen au mètre carré ne peut pas caractériser le quartier dominant, et ce n'est le cas ni pour le 7 Issu du programme de maximisation de l'utilité à se déplacer 8 Ce travail définit le quartier dominant en fonction du degré de corrélation spatiale des prix immobiliers, ainsi donc si les données de tel quartier sont enlevées de la base de données, le degré de corrélation spatiale baisse sensiblement, alors ce quartier présente un rôle directif dans l'effet de diffusion des prix immobiliers, dans ce cas ce quartier est donc considéré comme un quartier dominant. 25 revenu des habitants, ni pour le taux de criminalité. Mais si que les variables quantitatives ne caractérisent pas de manière significatives les quartiers dominants quelles sont les variables qualitatives principales qui caractérisent les quartiers dominants. 26 CHAP. II APPROCHE METHODOLOGIQUE Ce chapitre se subdivise en trois sections. La première section expose les différentes techniques utilisées pour collecter les données, la deuxième essaye de donner les différentes techniques qui nous ont permis de traiter les données. Enfin, la dernière section présente les outils utilisés pour collecter et traiter les données sous-étude. II.1. TECHNIQUES DE COLLECTE DES DONNEESNous avons utilisé deux techniques principales pour collecter les données : la préenquête et l'enquête proprement dite. Nous avons utilisé deux techniques principales pour collecter les données : la préenquête et l'enquête proprement dite. II.1.1 Pré-enquête : détermination de la taille de l'échantillon Notre population cible est constituée des maisons d'habitation de la ville de Bukavu. Pour améliorer la précision de nos estimateurs et face à une population à enquêter non homogène, nous avons optés pour un sondage stratifié avec comme strates les communes de Kadutu, Ibanda et Bagira dont l'ensemble de la population s'élève à 870 944 habitants (Mairie de Bukavu, 2013) présentée dans le Tableau 2.1. Tableau 2.1 : Répartition de la population de Bukavu par commune
Source : Mairie de la ville de Bukavu, 2013 De ce tableau on observe que la commune de Kadutu est la plus peuplée avec une proportion de 41,1% du total de la ville, suivie par la commune d'Ibanda avec 34,2% et enfin 24,7% pour la commune de Bagira. Le Tableau 2.2 montre le nombre des ménages que comprend chaque commune en nous basant sur le rapport du PNUD(2009) montrant qu'au sud-Kivu un ménage est constitué en moyenne par 6 personnes, d'où : Nombre des ménages dans la ville de Bukavu= 870 944 6 = 1 45 157,33 soit 145 158 27 Tableau 2.2 : Répartition de la population par ménages
De ce tableau ci-dessus, il s'observe que dans la commune de Kadutu le nombre des ménages s'élève à 59 717, 49 593 dans la commune d'Ibanda et 35 848 dans la commune de Bagira et l'ensemble à 145 158. A défaut de temps et des moyens, nous ne pouvons pas mener l'étude sur l'ensemble de ces 145 158 ménages d'où nous extrayons un échantillon représentatif de cette population (ensemble des ménages) en utilisant la formule (Ardilly, 2006). ????/2 2 x V?? 2 n = ??2 (Eq. 2.1) Avec : - n: la taille de l'échantillon - ????/2 : est le coefficient de fiabilité, Il est égal à 1,96 pour un intervalle de confiance à 95%. - å : la marge d'erreur voulue par le chercheur (fixée à 5% dans cette étude). - V2X : est la variance relative pour la variable X donnée par la formule suivante : ??X 2 = (N-1 N ) . ??2 ??2 (Eq.2.2) Avec N : la taille de la population qui est le nombre des ménages. ó = est l'écart-type de la population cible. Plus la population est différenciée par rapport au facteur étudié, plus grandes seront la variance et la taille de l'échantillon. Toutefois, un problème majeur se pose dans l'application de cette formule, car le plus souvent on ne dispose pas cet écart-type de la population. Anderson, D. et al. (2001) préconisent trois solutions suivantes : 28 ? Si l'on dispose les résultats d'une étude similaire effectuée dans le passé récent, on utilise l'écart-type observé à cette époque ; ? Possibilité d'organiser un pré-test ou une étude pilote sur une trentaine d'individus de la population cible et estimer l'écart-type sur cette base ; ? Si les valeurs extrêmes de la variable étudiée (maximum et minimum) sont connues dans la population et si la règle d'approximation normale est acceptable, l'écart-type peut être estimé à partir de la différence entre les deux valeurs extrêmes divisée par quatre. D'où, la formule suivante : ?? = ??aleur ma??imale - ??aleur mi??imale 4 Pour notre travail, nous avons opté pour l'organisation d'une pré-enquête auprès de 30 ménages de la ville de Bukavu. La question a consisté à savoir le nombre des pièces que porte la maison. Le résultat trouvé montre une moyenne de 3,36 une médiane de 4 ainsi qu'un écart-type de 1,19. En remplaçant dans l'Eq2.2 et Eq2.1 les différentes valeurs susmentionnées. Dans l'équation (2.2) ???? 2 = (145 157 145 158) . 1,192 3,362 = 0,1254 (1) (1) Dans l'équation (2.1) donne n = 1,962 x 0,1254 0,052 = 192,69 ~ 193 ménages. Une fois qu'on a déterminé la taille n de l'échantillon total (193 ménages pour cette étude) et que l'on a décidé de stratifier (3 strates pour notre cas comprenant les trois communes :Bagira, Ibanda, et Kadutu), la prochaine décision importante est celle de savoir combien d'unités prendre au sein de chaque strate sous la contrainte de ne pas avoir une taille inférieure à celle de n donnée. C'est le problème d'allocation La répartition de l'échantillon total dans les différentes states est importante dans la mesure où elle peut avoir un impact considérable sur les écarts-types au sein des strates et sur le total. A partir des informations obtenues auprès de la Mairie de Bukavu(2013), le tableau 2.3 montre la répartition de l'échantillon stratifié proportionnellement à la taille de chaque 29 commune en utilisant un taux de sondage f ( ?? ?? ) de 0,0013 identique au sein de chaque state. Tableau 2.3 : Répartition de l'échantillon pour l'enquête proprement dite
Source : Mairie de la ville de Bukavu, 2013 et notre confection II.1.2 L'enquête proprement dite L'enquête porte sur l'ensemble des maisons d'habitation de la ville de Bukavu dont le nombre est estimé à 145 158 comme démontré ci-haut et dont un échantillon de 193 maisons a été extrait et reparti dans les trois communs et différents quartiers de la ville de Bukavu. Les données utilisées ont été collectées après une brève introduction auprès de nos enquêtés en leur expliquant le bien fondé de notre recherche. Le questionnaire d'enquête implémenté dans le téléphone Android en utilisant l'application ODK Collect 1.4.4 et ses différents outils afin de d'éviter les erreurs liées à l'encodage ainsi 30 que de permettre d'obtenir les coordonnées géographiques( longitude et latitude) des maisons enquêtées avec une grande précision( précision moyenne de 5 mètres) nous a permis de réduire la durée de l'enquête que nous avons ainsi réalisée pendant 14 jours, du 4 au 18 Janvier 2015, d'une manière continue. S'ils estimaient être capables de répondre immédiatement, nous les attendions jusqu'à ce qu'ils terminent et cela pendant en moyenne 10 minutes, sinon ils nous allions ailleurs. Cela nous a permis d'avoir un taux de réponse de 100%. La fiabilité des informations récoltées dépendait fortement du degré d'engagement des responsables et leur volonté à pouvoir répondre convenablement à toutes les questions posées. Cependant nous avons rencontré certains problèmes dont les plus majeurs sont les suivants : - Certains des enquêteurs ne nous livraient pas d'informations fiables au juste titre qu'ils estimaient que nous nous sommes déguisés en étudiant mais dans le fonds on travaillait pour le compte de l'Etat. Vu qu'il n'y avait pas moyen de surmonter cet obstacle, nous étions obligé de présenter d'abord la carte d'étudiant et s'il y avait toujours de la résistance on décidait de ne pas enquêter le ménage en question. - Réticence de certains ménages de pouvoir donner une valeur proche de la réalité sur la valeur de leur maisons par crainte d'être surtaxés par le service immobilier ou l'inverse, c'est-à-dire le cas où certains ménages surestimaient la valeur de leur maison. Lorsqu'on remarquait ce comportement nous changions la façon de poser la question et nous leur demandions de nous donner la valeur de transaction d'une maison proche et de pouvoir estimer la valeur de sa maison sur base de cette valeur. 31 II.2 TECHNIQUE DE TRAITEMENT DES DONNEES II.2.1 Fondement théorique et spécification du modèle La spécification du modèle économétrique dépend du but poursuivi par le chercheur et de la théorie économique sous-tendant. Ainsi le présent travail vise à déterminer les différentes composantes permettant de déterminer les prix des maisons d'habitation dans la ville de Bukavu en se basant sur des modèles théoriques urbains pour lesquels l'ensemble des activités était situé au centre-ville conditionnant ainsi le choix résidentiel et dont les effets sont contrebalancés par la recherche des aménités par les ménages. Ainsi, ce présent travail s'inspire du modèles des prix hédoniques utilisé par Srikhum( 2012) ainsi que celui de Basu et Thibodeau (1998) donnant les détails assez complets des caractéristiques qui contribuent à donner une estimation du prix d'un bien résidentiel et qui doivent être prises en compte dans le modèle d'évaluation :
32 Pour traduire les particularités de cette étude, nous nous inspirons du modèle énoncé ci-haut afin d'avoir un modèle adapté à l'objectif du travail. II.2.1.1 Choix de la forme du modèle Pour estimer les modèles hédoniques, plusieurs formes fonctionnelles sont disponibles(voir Terra, 2005). En l'absence de consensus sur la meilleure forme fonctionnelle, chacun est donc libre à déterminer, en fonction des données dont il dispose, la forme fonctionnelle la plus adaptée. Ainsi la forme du modèle choisie pour cette étude est la forme linéaire car elle est la plus simple à interpréter et la plus utilisée dans l'estimation hédonique. Elle relie le prix de vente aux différentes variables explicatives. Le coefficient associé à chaque variable correspond au prix implicite de cette caractéristique. Une augmentation d'une unité d'une caractéristique donnée entraîne une variation (en dollars) du prix de vente égale au coefficient de cette variable. En se référant au travail de Basu et Thibodeau (1998) énoncé ci-haut, nous retenons une décomposition en quatre parties de la valeur immobilière comme présentée par Srikhum (2012): ???? = a??+ X1??+ X2??+ X3??+ X4??+ e?? (Eq. 2.3) Avec ???? le vecteur des prix des biens immobiliers. ??, ??, ??, ?? Les coefficients de la régression correspondant à X1
la matrice des caractéristiques physiques, X2
la Le modèle retenu pour le présent travail est tel que : PRMS= â0 + â1SURFPCL + â2SURFMS + â3NBREPC + â4NBREETG + â5ANCMS + â6TYPEMS + â7ETMURS + â8PRES2TOILSLB + â9PRESGARG + â10COMMBAG + â11COMMKAD +â12DISTCENTVIL + â13DISTAXPRIPL + â14DISTRTPROCH + â15DISTINFRTRPPROCH + â16 DISTCENTRMEDICL + â17 DISTETENSGMT + â18NIVETD + â19 PROFESS + â20CTTRANSP Eq. 2.3 33 Tableau 2.4 : Définition des variables et présentation des signes attendus
34
35
36
37 II.2.1.2 Description des variables 1° La variable dépendante : le prix de la maison C'est une variable quantitative notée PRMS. Cette valeur peut être le prix de transaction, le prix annoncé ou la valeur estimée du bien. Par manque de bases des données, les prix des biens étudiés seront des valeurs estimées de ces biens par le propriétaire. (Srikhum, 2012) montre que les maisons voisines ont souvent été construites à la même période, elles ont fréquemment la même structure, le même style et la même taille. L'estimation de la valeur d'une maison peut se faire soit auprès de l'expert du quartier ou soit auprès du propriétaire, qui pourra donner une estimation du prix basée sur la valeur de transaction des maisons voisines. 2° Les variables indépendantes Les variables indépendantes vont se résumer en quatre grandes catégories : a. Les variables relatives aux caractéristiques physiques - Surface de la parcelle : elle est une variable quantitative notée SURFPRCL. Elle est la surface en mètre carré obtenue par la multiplication de la longueur de la largeur de la parcelle sur laquelle se trouve la maison. Plus grande est cette surface plus élevé est supposé être le prix de la maison (Srikhum, 2012). - Surface de la maison : c'est une variable quantitative notée SURFMS. Cette variable permet de comprendre le niveau d'occupation de la parcelle. Elle est la somme des surfaces en mètre carré de différentes constructions se trouvant sur la parcelle. Il s'agit de la surface de maison principale, surface des maisons annexes, surface de la toilette si elle est à l'extérieur de la maison principale, et la surface des autres constructions se trouvant sur la parcelle par exemple une boutique. Cette variable permet d'augmenter davantage la maison de la maison Homocianu(2009). - Nombre des pièces : il est une variable quantitative notée NBREPC. Il s'agit du nombre des pièces à vivre de la maison (y compris ceux des annexes s'ils existent) à l'exception des pièces dites « humides » ; notamment salle de bain et toilette. Cette variable est attendue avec un signe positif Travels et al.(2013). - Nombre d'étage : c'est une variable quantitative notée NBREETG, il s'agit des nombre des niveaux que comporte la maison. Le nombre des niveaux influence positive le prix de la maison Travels et al.(2013). - Ancienneté de la maison : Variable catégorielle notée ANCMS. Elle prend successivement 5 modalités : elle sera égale à 0 si la maison a été construite avant 1980, 1 si elle a été construite entre 1980 et 1990, 2 si elle a été construite entre 1991 et 2000, 3 si elle a été construite entre 2001 et 2010 et 4 si c'est après 2010. Les maisons plus jeunes sont supposée coutée plus chères que les autres Travels et al.(2013). - Type de la maison : elle est une variable qualitative notée TYPEMS. Elle présente deux modalités (soit 1 si la maison est en matériaux durables et 0 sinon. Cette variable influence positivement le prix du ménage si la maison en question est en matériaux durables Travels et al. (2013). - Etat des murs : c'est une variable qualitative notée ETMURS basée sur son aspect intérieur et extérieur. Elle prend deux valeurs, sera égale à 1 si la maison est en bon état, c'est à dire lorsqu'elle a des murs bien vernis et n'ayant pas des fissures dans ses murs. Une maison coutera plus cher que ses murs sont en bon état Travels et al.(2013). - Présence d'au moins deux salles de bains ou deux toilettes : c'est une variable qualitative notée PRES2TOILSLB. Comprend 1 si la maison est dotée d'au moins deux salles de bains ou toilettes et 0 sinon Travels et al.(2013). - Présence d'un garage : variable qualitative notée PRESGARG avec deux modalités : 1 si la maison comporte un garage et 0 sinon (Des Rosiers, 2001), b. Les variables relatives aux caractéristiques de localisation Les données spatiales doivent être référencées par une localisation précise afin de pouvoir calculer la distance entre les observations et permettre de déterminer la matrice de poids9. La distance euclidienne10 découlant du théorème de Pythagore est 9 Le calcul de la matrice de poids permettra de mesurer le niveau de dépendance des prix des maisons, ce point est développé au niveau du calcul de l'autocorrélation spatiale 10 La distance euclidienne est la ligne droite, la plus courte, qui relie deux points dans l'espace à deux dimensions (Srikhum, 2012). 39 la plus utilisée pour calculer la distance entre deux points. Les coordonnées géographiques (les couples latitude et longitude) sont les informations les plus convenables pour calculer la distance. A partir de la latitude et la longitude, les coordonnées cartésiennes sont obtenues en projetant les coordonnées sphériques dans un espace cartésien à deux dimensions et pouvant s'exprimer en n'importe quelle unité (mètres, kilomètres, yards...) permettant ainsi de calculer des différences. Les coordonnées géographiques11 sont récoltées au moyen d'un téléphone en utilisant l'application Android ODK Collect. - Commune de Bagira/Kadutu : C'est une variable dichotomique notée COMMBAG/COMMKAD. Etant donné que nous avons posé la commune d'Ibanda comme la commune de référence le coefficient négatif associé à la variable COMMBAG/COMMKAD signifiera le montant dépréciatif en unité monétaire de la valeur d'une maison lorsqu'elle est située à Bagira/Kadutu en référence à la commune d'Ibanda. - Distance avec le centre-ville : c'est une variable quantitative notée DISTCENTVIL mesurant la distance euclidienne entre la maison et la poste de la ville de Bukavu considérée comme le point central de la ville de Bukavu en mètre. Cette distance sera calculée automatiquement au moyen de la différence des coordonnées géographiques de la poste centrale avec celle de chaque observation. - Distance avec l'axe routier principal : variable quantitative notée DISTAXPRIPL mesurant la distance euclidienne en mètre entre la maison et la route principale. Plus cette distance est grande avec la maison moins élevée sera la valeur de la maison (Srikhum, 2012). - Distance avec la route la plus proche : variable quantitative notée DISTRTPROCH. Permet de mesurer distance de marche à pied en mètre entre la maison et la route la plus proche afin de rendre compte du 11 Les coordonnées géographiques sont récoltées au format degré décimal (exemple 28,866399 et -2,501115) qui ensuite sont converties au format de la projection traverse de Mercator(UTM) qui a permis d'exprimer le couple (longitude, latitude) en mètre afin de pouvoir calculer les distances. 40 niveau d'accessibilité de la maison. Plus le niveau de l'accessibilité sera difficile (c'est-à-dire la distance est grande) moins élevée sera la valeur de la maison (Srikhum, 2012). - Distance avec l'infrastructure de transport la plus proche : c'est une variable quantitative notée DISTINFRTRPPROCH. Elle permet de calculer la distance euclidienne en mètre entre la maison et l'infrastructure permettant d'accéder facilement au transport en commun. Cette distance influence négativement la valeur de la maison (Srikhum, 2012).
- Profession du chef du ménage : c'est une variable catégorielle notée PROFESS avec 0 si agriculteur, paysans et sans aucune activité, 1 si prestataire des services (salon de coiffure, menuisier, restaurant,...), 2 si salarié, 3 si commerçant et 4 si autres. Cette variable permet de capter l'activité principale dans laquelle le propriétaire de la maison tire son revenu habituellement, elle influencera positivement la valeur de la maison. 41 - Cout de transport journalier : Variable quantitative notée CTTRANSP. Wingo (1961) donne un rôle central aux transports dans le fonctionnement urbain, en considérant que le marché foncier est conditionné par les transports urbains. Il prend en compte dans le modèle d'un coût généralisé de transport au lieu d'un coût de transport fonction linéaire de la distance au centre comme Alonso(1964) le considérait. Ce coût généralisé reflète l'ensemble des dépenses monétaires de transport et la valeur attribuée au temps de trajet. Cette variable comprendra la somme des couts de transport en commun aller-retour que pourrait supporter le chef du ménage pour se rendre à la poste centrale( nous avons considéré le marché de Nyawera comme référence car c'est le centre commercial le plus proche), pour se rendre à son travail( en nous inspirant du modèle d'Alonso(1964) pour lequel le ménage effectue arbitrage cout de transport travail- cout de foncier), pour se rendre au marché central de Kadutu. II.2.2 Méthodes d'estimation II.2.2.1 La méthode de moindre carré ordinaire (MCO) Cherchant à mesurer la valeur que les ménages accordent à une caractéristique donnée de la maison, la méthode des prix hédoniques est l'une des principales méthodes permettant d'estimer de telles valeurs et faisant ainsi recours à la méthode d'estimation par Moindre Carré Ordinaire (MCO) (Travers et al., 2013 et Srikhum, 2012). Sous la condition nécessaire que les résidus de l'estimation sont des variables aléatoires indépendantes et identiquement distribuées (la variance est constante et non corrélée), la méthode des moindres carrés ordinaires (MCO) permet d'obtenir les coefficients non biaisés de l'Eq. 2.3. Mais Cette régression hédonique standard ne permet pas de prendre en compte l'interaction existante entre les prix des maisons voisines. Le processus de détermination de la valeur des maisons d'habitation pour lequel le propriétaire se renseigne sur les prix des maisons voisines dans la détermination de la 42 valeur de sa maison crée localement une dépendance spatiale des prix. De plus, des maisons voisines ont souvent été construites à la même période, elles ont fréquemment la même structure, le même style et la même taille. Ces maisons doivent faire face aux mêmes variables d'externalité. Cette ressemblance locale crée donc un problème de corrélation spatiale des variables explicatives du modèle des prix hédonistes. Srikhum (2012) montre que si cette dépendance spatiale n'est pas prise en considération lors de la spécification du modèle, les résidus du modèle hédonique seront dépendants. De ce qui précède il s'observe qu'en réalité la valeur d'une maison a une influence sur la valeur des autres maisons situés proches de lui, d'où le problème de l'autocorrélation spatiale entre les prix immobiliers. Dans ce cas la méthode des moindres carrés ordinaires est insuffisante et inadaptée(Travels et al.,2013 ; Srikhum,2012; Gallo,2002) et les paramètres estimés de la régression sont biaisés et non efficients. Ensuite, Gallo (2002) montre que l'étude des marchés immobiliers dans les espaces urbains fait souvent apparaître une segmentation de ces marchés: les caractéristiques et les prix des maisons diffèrent substantiellement selon leurs localisations12. Cette segmentation provenant entre autres de l'inélasticité de la demande des ménages pour certaines caractéristiques des maisons ou encore de diverses barrières institutionnelles conduit à des variations persistantes et significatives des caractéristiques des logements et de leurs prix dans les différents sous marchés. Dans ces conditions, estimer une relation "globale" entre le prix des maisons et ses caractéristiques, relation s'appliquant de la même façon sur toute l'aire urbaine étudiée, est susceptible de masquer des différences importantes dans l'espace. L'instabilité dans l'espace des relations économiques illustrée ci-haut est appelée hétérogénéité spatiale (Gallo,2002) qui peut s'observer sur plusieurs niveau: les comportements et les phénomènes économiques ne sont pas les mêmes dans le centre 12 Une maison située à Muhumba n'aura pas la même valeur que celle située à Cimpunda, toutes choses restant égales par ailleurs. 43 d'une ville et dans sa périphérie, dans une région urbaine et dans une région rurale, dans les différentes communes, quartiers, avenu, etc. cela peut se traduire dans une régression économétrique de deux façons : par des variances différentes ou par des coefficients différents. Dans le premier cas, on est confronté à un problème d'hétéroscédasticité, et dans le second cas, on parle d'instabilité des paramètres de la régression qui varient systématiquement avec la localisation. Ces deux grandes particularités des données spatiales, l'autocorrélation spatiale qui se réfère à l'absence d'indépendance entre observations géographiques et l'hétérogénéité spatiale liée à la différenciation dans l'espace des variables et des comportements, ont été souvent prises en compte dans la littérature, comme par exemple dans le cadre de l'analyse des espaces urbains: étude de la variation des densités de population (Kau, Lee et Sirmans, 1986; McMillen et McDonald, 1998) et des caractéristiques des logements ( Dubin et Sung, 1987; Can, 1990, 1992) ou étude de la segmentation des marchés immobiliers (Goodman et Kawai, 1982; Bender et Hwang, 1985). A cet égard le recours aux méthodes de l'économétrie spatiale visant à traiter les deux grandes particularités des données spatiales : l'autocorrélation spatiale et de l'hétérogénéité spatiale devient incontournable. II.2.2.2 Prise en compte de l'hétérogénéité spatiale L'hétérogénéité spatiale est un phénomène lié à la différenciation dans l'espace des variables et des comportements. Gallo (2002) indique qu'en pratique, ces différences peuvent se traduire de deux façons dans une régression: par des variances des termes d'erreurs différentes qui correspondent au problème de l'hétéroscédasticité ou par des coefficients différents qui renvoie à l'instabilité des paramètres de la régression. Dans le cas de l'étude immobilière, il paraît possible que l'impact spatial ne soit pas homogène. Can (1990) pose la question : « la valeur des caractéristiques des biens immobiliers varie-t-elle selon la localisation du bien ? ». Si cette valeur varie, une seule estimation hédonique ne suffit pas pour estimer l'ensemble des observations. Il faut un ou des outils qui permettent de vérifier cette variation selon la 44 localisation des biens13. Par conséquent, les caractéristiques de localisation prises en compte dans le modèle d'évaluation doivent varier selon la segmentation de marché14. 1°. Hétéroscédasticité Une hypothèse du modèle de régression linéaire est que la variance des perturbations soit constante. Lorsque cette hypothèse est violée, il y a hétéroscédasticité. La principale conséquence de l'hétorescédasticité est que les estimateurs restent linéaires et sans biais, mais ils ne sont plus de variance minimum parmi tous les estimateurs. Les t-students seront aussi artificiellement élevés, suggérant que les variables explicatives sont significatives alors que non (Bourbonnais, 2009). En général, l'hétéroscédasticité provient des variables manquantes ou de toute autre forme de mauvaise spécification. En outre, lorsqu'on travaille sur des données localisées, les unités spatiales utilisées ne sont généralement ni régulières, ni homogènes : elles peuvent avoir des formes et des aires différentes, des niveaux de développement variables, des populations plus ou moins importantes etc. Cette forme des erreurs conduit au test de Breusch-Pagan (1979) basé sur le multiplicateur de Lagrange. H0 : ái =0, i =1 ... T : le modèle est homoscedastique H1 : Sinon : le modèle est hétéroscedastique. Dans le cas de l'hétéroscedasticité, White (1980) a fourni un estimateur convergent de la matrice des variances-covariances de l'estimateur des Moindres Carrés Ordinaires (MCO) en présence d'hétéroscédasticité de forme inconnue pour que l'inférence 13 Plusieurs exemples peuvent être évoqués pour confirmer cette remarque. La caractéristique de localisation « vue sur le lac Kivu » est une variable qui a une influence possible sur le prix uniquement pour les maisons situées au bord du lac Kivu ou pouvant avoir une vue au lac Kivu. En revanche, cette caractéristique n'a aucune influence sur le prix des maisons situées à côté du Marché central de Kadutu. La caractéristique « vue sur lac Kivu» influence le prix uniquement pour les maisons situées à coté ou au bord du lac et non pas pour ceux situés à côté du marché de Kadutu. Les caractéristiques de localisation des biens immobiliers diffèrent selon leurs environnements. Un seul modèle d'évaluation avec les mêmes caractéristiques pour toutes les segmentations donne des résultat biaisé. 14 Prenons l'exemple de la distance jusqu'au transport en commun. Etre situé près d'un accès à un transport en commun augmente la valeur d'une maison grâce à la facilité de déplacement, mais peut avoir une influence moins importante voire même négative sur la valeur d'une maison. Les acheteurs de maison disposant souvent de voiture, la localisation près d'un accès de transport en commun peut être perçue, pour eux, comme un inconvénient du fait de la nuisance sonore ou de la fréquentation des passagers. 45 statistique basée sur les MCO soit asymptotiquement fiable. Stata permet de corriger de l'hétéroscédasticité la methode de moindre carré ordinaire par la méthode de White afin corriger les écarts-types au moyen de l'option robust (exemple : regress y x1 x2 x3, robust).Toutes les interprétations et les tests s'effectuent comme auparavant avec les nouveaux écarts-types. 2°. Instabilité des paramètres L'instabilité des paramètres provient de l'absence de stabilité dans l'espace des comportements ou des relations économiques : les paramètres d'une régression varient selon leurs localisations. L'on peut chercher à savoir dans quelle mesure la moyenne d'une variable varie entre différents sous-groupes d'observations localisées. Par exemple, on peut se demander si la moyenne des prix des maisons d'habitation est la même à Ibanda, Kadutu et Bagira ou si la moyenne des prix est la même dans tous les quartiers de la ville de Bukavu. D'où l'on fera recours à l'analyse de la variance spatiale. ? ANOVA Spatiale Dans cette étude, il est question d'une analyse de variance spatiale univariée vu que nous étudions l'effet d'une variable indépendante qualitative (commune) sur une variable dépendante (prix des maisons) quantitative avec l'objectif de tester si la commune influence la valeur de la maison. H0 :X1 = X2=X3 Par l'hypothèse nulle, on admet que les moyennes de prix sont égales pour toutes les communes H1 :X1 ? X2? X3 L'hypothèse alternative avance qu'il y a au moins une moyenne qui diffère des autres. Afin de s'assurer que nos données acceptent l'analyse de la variance, deux conditions principales sont nécessaires pour que les conclusions soient valides : l'homogénéité de la variance intragroupe et la normalité des données. Le test de Levene (> 0,05) est 46 utilisé pour accepter l'hypothèse d'homogénéité de la variance et le test de normalité (test Kolmogorov ou de Shapiro > 0,05) qui doit accepter l'hypothèse de normalité. Si les données ne sont pas appropriées à une ANOVA (hétérogénéité des variances ou données fortement asymétriques) Carricano et Poujol (2008) propose d'utiliser des tests non paramétriques qui ne supposent ni homogénéité de la variance, ni une distribution normale. Si cela est le cas nous ferons recours à l'alternative non paramétrique de l'ANOVA15, le test de Kruskall-Wallis16. Concernant l'efficacité du test de Kruskal-Wallis, Rakotomalala(2008) montre que si l'hypothèse alternative est vraie, là où il faudrait 95 observations pour que l'ANOVA détecte la réponse correcte, il en faudrait 100 pour le test de Kruskal-Wallis. Srikhum (2012) montre que la prise en compte du problème d'hétérogénéité spatiale paraît important pour une analyse des données spatiales mais il est beaucoup moins mentionné que l'autocorrélation spatiale par la littérature dans l'étude immobilière. II.2.2.3 Prise en compte et mesures de l'autocorrélation spatiale Les données spatiales sont normalement supposées indépendantes alors que cette hypothèse est rarement justifiée et devrait être systématiquement testée. Comme précédemment indiqué, l'autocorrélation spatiale se réfère à la ressemblance des observations en fonction de leur localisation géographique. Ainsi les prix des biens immobiliers sont spatialement corrélés parce que les biens voisins sont semblables. L'objet de cette partie est de présenter certains outils utilisés pour tester la présence de l'autocorrélation spatiale, différentes sources de l'autocorrélation spatiale ainsi que les modèles et méthodes retenues pour ce présent travail pour redéfinir la régression hédonique afin d'obtenir un estimateur non biaisé et efficient du prix des maisons d'habitation à Bukavu. 15 http://en.wikipedia.org/wiki/Kruskal-Wallis_one-way_analysis_of_variance 16 Il existe des tests paramétriques qui sont utilisés en cas d'absence de l'homogénéité de la variance, notamment le test de « Welch » et de « Brown&Forsythe » mais à notre connaissance nous n'avons pas trouvé des tests qui puissent prendre en compte simultanément l'absence de la normalité et celle de l'homogénéité raison pour laquelle notre choix s'est orienté aux tests non paramétriques, comme proposé Carricano et Poujol (2008), pour lesquels ni la condition de normalité ni celle d'homogénéité de la variance n'est posée à l'avance. 47 1°. Tests de l'autocorrélation spatiale Les mesures d'autocorrélation spatiale permettent d'estimer la dépendance spatiale entre les valeurs d'une même variable en différents endroits de l'espace. Pour la mettre en évidence, les indices prennent en compte deux critères : la proximité spatiale et la ressemblance ou la dissemblance des valeurs de cette variable dans les unités spatiales de la zone d'étude. Les indices les plus utilisés sont l'indice de Moran et l'indice de Geary. Dans la littérature, le coefficient de Moran est souvent préféré à celui de Geary en raison d'une stabilité générale plus grande (Upton et Fingleton, 1985). Dans cette étude nous allons utiliser seulement l'indice de Moran (Moran's I). Avant de calculer cet indice, il est nécessaire de définir les interactions spatiales prises en compte. La matrice d'interactions spatiales est une matrice carrée qui permet de mesurer les interactions entre les unités spatiales, indépendamment de la variable étudiée. Sa valeur est d'autant plus élevée que la « proximité » spatiale entre les unités est forte. La matrice est intégrée à l'équation de régression afin d'estimer les coefficients non biaisés du modèle de prix hédoniste. Pour utiliser cette matrice, il est nécessaire de donner a priori une forme fonctionnelle spécifique aux interactions spatiales. Trois formes sont plus utilisées dans la littérature: - La matrice de contiguïté : généralement, les éléments de la matrice de contigüité d'ordre k sont définis comme le nombre minimal de frontières qu'il faut franchir pour aller d'une unité spatiale à l'autre. La matrice de contiguïté la plus utilisé est d'ordre 1 : les éléments de la matrice sont égaux à 1 si deux unités sont voisines et sont nuls dans le cas contraire. Cette forme est plus utilisée si on ne dispose pas des coordonnées géographiques des observations. - La matrice des distances est une mesure
d'intensité spatiale - Une autre manière plus détaillée de
décrire les interactions 48 0 ou 1), mais de tenir compte aussi de l'intensité de cette proximité spatiale, qui dépend de l'importance de la frontière commune. Une fois l'ensemble des voisinages défini, dans une deuxième étape, il faut déterminer les poids associés à chaque voisin. A cet effet on peut citer la matrice de poids standardisée (Row-standardized weight matrix), la matrice de poids binaire (Binary weight matrix) et la matrice de poids binaire générale (General binary weight matrix). Dans ce présent travail nous choisissons la matrice de voisinage avec la condition de distance de séparation maximale de 400 mètres afin que chaque observation contienne au moins un voisin et l'inverse de la distance comme pondération. Ce choix est justifié par Srikhum (2012) qui montre que l'inverse de la distance permet de mesurer l'accessibilité qui est une des caractéristiques principales en évaluation immobilière. ? L'indice I de Moran L'indice de Moran (Moran 1950) permet de mesurer le niveau d'autocorrélation spatiale d'une variable et de tester sa significativité. L'indice a des valeurs comprises entre -1 (indiquant une dispersion parfaite) à 1 (corrélation parfaite). Une valeur nulle signifie que la distribution spatiale de la variable étudiée est parfaitement aléatoire dans le territoire. Les valeurs négatives (positives) de l'indice indiquent une autocorrélation spatiale négative (positive). Pour le test d'hypothèse statistique, l'indice I de Moran peut être transformé en Z-scores, pour lesquels les valeurs plus grandes que le seuil de significativité positive ou plus petites que le seuil de significativité négative indiquent une autocorrélation spatiale significative, avec un taux d'erreur correspondant au seuil (hypothèse de loi normale). Une interprétation de l'indice de Moran peut être faite avec l'aide du diagramme de Moran, qui représente, sous la forme d'un nuage de points, les couples de valeurs correspondant à la valeur de la variable dans chaque unité spatiale (en abscisse) et la moyenne des valeurs des zones contiguës (en ordonnée) définies par la matrice d'interactions spatial. 49
où i,j = unité spatiale ; n = nombre d'unités spatiales ; x est la valeur de la variable dans l'unité i ; ?? est la moyenne de x ; et ?????? sont les éléments de la matrice d'interactions spatiales, définie sous la forme de la contigüité, les distances ou les frontières communes. Pour le test d'hypothèse statistique nulle (pas d'autocorrélation spatial), l'indice I de Moran peut être transformé en Z-scores (les valeurs critiques) et p-value (la significativité).L'espérance mathématique de l'indice de Moran (hypothèse de non autocorrélation spatiale) est:
Et la variance est égale à : ??(????????????) = ??(???????????? 2) - (??(??????????))2 Ainsi, la valeur critique z-score est égale à : ???? = ???????????? - ??( ????????????) v?? (????????????) La valeur de p-value est l'approximation numérique de la superficie au-dessous de la courbe de la distribution de moyenne et variances connues. 2°. Sources de l'autocorrélation spatiale et methodes d'estimation Basées sur différents travaux (Basu et Thibodeau (1998); Bowen, Mikelbank et Prestegaard (2001); Dunse et Jones (1998); LeSage et Pace (2009); Tu, Yu et Sun (2004)), trois sources d'autocorrélation spatiale sont souvent citées : la ressemblance des biens voisins, le processus de détermination des prix immobiliers et la mauvaise définition du modèle d'estimation. Les prix des biens immobiliers sont spatialement corrélés parce que les biens voisins sont semblables. Cette ressemblance apparait dans les caractéristiques physiques, dans les caractéristiques de localisation et aussi dans les 50 caractéristiques de l'environnement. Les biens voisins sont souvent construits à la même période. Par conséquent, ils ont souvent la même structure, le même style et la même taille. Les immeubles voisins ont souvent la même qualité. Il est donc normal que la qualité d'un immeuble ait une influence sur le prix des immeubles situés à côté de lui. La dépendance des caractéristiques physiques est, par conséquent, une source d'autocorrélation spatiale des prix immobiliers. En outre, les biens voisins se confrontent normalement aux mêmes caractéristiques de localisation (la qualité de l'environnement, la présence de transports en commun, la distance jusqu'au centre-ville, etc.) et aux mêmes externalités, appelées aussi les caractéristiques de l'environnement (la qualité de l'air, la vue, la nuisance sonore, etc.). La non prise en compte de la dépendance des caractéristiques de localisation cause le problème de corrélation des résidus de l'estimation hédonique. Une raison souvent employée pour expliquer la dépendance spatiale des prix immobiliers est le processus de valorisation du bien par le vendeur. Pour déterminer la valeur à la vente de son bien, le propriétaire peut se renseigner, soit auprès de l'expert de quartier qui donne une estimation de prix basée sur la valeur de transaction des biens voisins, soit directement auprès de propriétaires de biens voisins. La valeur du bien immobilier dépend donc de la valeur de transaction des biens voisins. Dans le cas où la dépendance spatiale des prix immobiliers est causée par le processus de valorisation du bien, la dépendance se présente donc dans la partie des variables endogènes du modèle de régression hédonique. Lesage et Pace (2009) redéfinissent un modèle hédonique plus avancé (par rapport à l'Eq. 2.3) qui permet de prendre en compte la dépendance des variables endogènes de la façon suivante : y = a + Xfi + pWy + e (Eq. 2.4) Wy la matrice qui permet de prendre en compte la valeur à la vente des biens voisins, p permet de mesurer le degré de dépendance entre les biens voisins, fi comportent les coefficients de la regression, X est la matrice des caractéristiques physiques inclues dans la régression, l'équation suppose bien qu'il n'y ait pas de dépendance spatiale des caractéristiques physiques du bien. Les vecteurs a et e respectivement les vecteurs des constantes et des résidus de l'estimation. 51 La dépendance spatiale entre les valeurs de biens immobiliers peut aussi être expliquée par les variables omises qui ne sont pas prises en compte dans le modèle de l'estimation. Cela peut correspondre aux variables non observables liées à la préférence individuelle, aux infrastructures (le projet de construction de nouvelles routes), aux nouvelles externalités (le problème d'inondation d'un certain quartier). Cette variable manquante crée donc un problème de dépendance spatiale des prix des biens situés autour d'elle. La prise en compte de la valeur des biens voisins dans le modèle d'évaluation des biens immobiliers permet donc d'améliorer le pouvoir explicatif du modèle. Supposons que l'Eq. 2.3 soit décomposée en deux parties : y = a + ???? + 8Z + e (Eq. 2.6) Avec ???? et 8Z representant la valeur correspondant aux deux groupes des variables explicatives. X et Z sont indépendants mais Z subit le problème de dépendance spatiale. Si l'information sur Z est omise, l'Eq. 2.3 va devenir y = a + ???? + e et la dépendance se présente dans les résidus de l'estimation e avec : e= 8??e+ ? La variable non observable ne cause pas uniquement un problème de corrélation spatiale, mais peut générer un problème d'hétérogénéité spatiale. 3° Modèles retenus pour ce travail Étant donné que les sources de la dépendance spatiale sont variées, soit dans la partie variable à expliquer (modèle autorégressif spatial - SAR), soit dans la partie des variables explicatives(modèle de variables exogènes décalées - SLX), ou soit dans la partie des résidus de l'estimation (modèle d'erreurs spatiales - SEM), Srikhum(2012) montre que le choix d'un modèle de régression linéaire prenant en compte l'autocorrélation spatiale dépend des données étudiées, de leur distribution dans l'espace, la source de l'autocorrélation spatiale prise en compte dans l'étude, de l'information de localisation, du logiciel disponible et de l'objectif de l'étude. Ainsi comme l'objectif principal de ce travail est de déterminer les facteurs explicatifs du prix des maisons d'habitations dans la ville de Bukavu, parmi les différents 52 modèles spatiaux disponibles, nous retenons deux modèles comme le montre Srikhum(2012) que seul le modèle autorégressif spatial (modèle SAR : Spatial Autoregressive Model) dans lequel la source de l'autocorrélation spatiale choisie est le processus d'évaluation des biens et le modèle d'erreurs spatial (modèle SEM : Spatial Error Model) où la dépendance est causée par les erreurs de spécification du modèle de l'estimation sont les plus utilisés. ? Modèle SAR (Spatial Autoregressive Spatial) Le modèle spatial le plus basique est le modèle autorégressif spatial (SAR) où l'autocorrélation spatiale de la variable endogène est prise en compte. Cressie (1991) indique que le modèle SAR est utilisé dans le cas où l'effet de diffusion (spillover effect) cause la dépendance spatiale de la variable endogène ; un changement a une influence directe sur une observation et crée une influence indirecte sur les observations voisines. Le modèle SAR est le modèle le plus utilisé en étude immobilière car le processus d'évaluation de bien immobilier crée la dépendance des prix. Le vendeur se renseigne notamment auprès de ses voisins pour déterminer le prix de vente de son bien. Quant à l'acheteur, il s'intéresse à la valeur des biens localisés autour du bien qu'il veut acheter afin d'estimer le prix d'achat le plus raisonnable. La valeur d'un bien est donc calculée en prenant en compte la valeur estimée des biens voisins comme référence et y ajoutant un surplus correspondant aux caractéristiques spécifiques du bien ainsi qu'une plus-value liée à la préférence de l'acheteur. Ainsi, par exemple l'impact de l'existence d'un hôtel sur le prix immobilier se diffuse mais l'importance de cet impact dépend négativement de la distance entre cet hôtel et les maisons. Le modèle autorégressif spatial (SAR) se présente donc comme le modèle de régression linéaire simple tout en intégrant le terme pWy qui contient les poids des observations voisines intégrées dans l'estimation. Ce modèle s'écrit donc : y = a + Xf3 + pWy + e 53 ? Le modèle d'erreurs spatial (SEM) Le modèle SEM est un autre modèle souvent utilisé en étude immobilière. Ce modèle prend en compte la dépendance spatiale due aux effets des externalités. Deux motivations souvent mentionnées pour expliquer l'autocorrélation des erreurs sont la variable omise lors de la définition de modèle et l'hétérogénéité spatiale. Premièrement, lors de la définition du modèle de régression, certaines variables ne sont pas prises en compte comme variable explicative. Cela peut être dû à un manque d'information ou à une mauvaise spécification du modèle. Si cette variable explicative omise ne présente pas de dépendance spatiale, ce modèle donnera des estimateurs non biaisés. Mais si cette variable présente la dépendance spatiale, les erreurs de l'estimation seront corrélées. Deuxièmement, LeSage et Pace(2009) soulignent que le modèle SEM peut aussi être développé pour résoudre le problème d'hétérogénéité comme justifié précédemment. Ce modèle s'écrit donc :y = a + ???? + 8Z + e X et Z sont indépendants mais Z subit le problème de dépendance spatiale. Si l'information sur Z est omise, cette équation va devenir y = a + ???? + e Et la dépendance se présente dans les résidus de l'estimation e avec : e= 8??e+ ? 4°. Méthodes d'estimation En présence de dépendance spatiale, l'estimation par les moindres carrées ordinaires (MCO) donne des estimateurs biaisés et non efficients. Srikhum(2012) montre que ni les MCO ni les MCG ne permettent d'obtenir un estimateur non biaisé, convergent et efficient. Plusieurs méthodes sont proposées par la littérature pour estimer la variable en présence de dépendance spatiale. Gallo (2002) utilise la méthode du maximum de vraisemblance. LeSage et Pace (2009) proposent le maximum de vraisemblance 54 concentré et la méthode bayésienne qui est basée sur le « Markov Chain Monte Carlo (MCMC) ». Kelejian et Prucha (1998) et Drukker, Prucha et Raciborski (2011) proposent la méthode de moindres carrés généralisés en deux étapes. Ce présent travail ne portera que sur le maximum de vraisemblance qui est la méthode la plus souvent utilisée en étude immobilière. II.2.3. Choix du modèle optimal Si plusieurs modèles significatif sont en compétition et comportant des variables explicatives différentes, Gallo (2002) propose de faire le choix entre modèles avec les critères traditionnels tels que les critères d'information d'Akaïke(AIC) en passant par le test du rapport de vraisemblance pour lequel le modèle optimal à retenir est celui qui minimise la fonction d'Akaike (Akaike Information Criterion). Après avoir choisi un modèle optimal, une des hypothèses du modèle classique de la régression multiple est que les variables explicatives du modèle soient indépendantes les unes des autres. Dans le cas contraire, il y a présence de multicolinéarité, problème généralement rencontré dans la mise en oeuvre du modèle hédonique (Gallo, 2002 ; Srikhum, 2012) traduisant de l'instabilité et d'incohérence des coefficients de régression; des tests statistiques de significativité individuelle des variables invalidés par ce qu'on ne sait pas séparer leurs effets pour évaluer leur importance. La solution au problème passe par l'élimination de la ou des variables qui sont à la source de la colinéarité, par la substitution d'une variable interactive aux deux variables fortement corrélées ou par l'application de la procédure de régression par étape (Stepwise Regression17), permettant d'éliminant de l'équation toute caractéristique dont la contribution marginale à la valeur réelle n'est pas suffisamment significative après avoir appliqué des tests statistiques de la multicolinéarité recommandés(Farrar et Glauber, VIF...). 17 A cet effet, Bourbonnais (2009) distingue 5 méthodes qui peuvent être utilisées pour retenir le meilleur modèle. Il s'agit soit de considérer toutes les régressions possibles, soit d'utiliser l'élimination progressive (« Bachward Elimination »), soit la sélection progressive (« Forward Regression »), soit la régression pas à pas (« Stepwise Regression) et la régression par étage (« Stagewise Regression »). Les 3 dernières méthodes étant appropriées pour les variables explicatives quantitatives, la méthode Stepwise Regression est utilisée dans cette étude. 55 Dans le cas de ce présent travail les VIFs, ou facteurs d'inflation de la variance, étant, à ce jour, l'indicateur le plus fiable de ce phénomène et plus utilisé (Travels et al.,2013) indiquant, dans quelle mesure, chaque variable indépendante du modèle est expliquée par l'ensemble des autres variables explicatives, sera utilisé pour détecter la multicolinéarité excessive. Le VIF prendra la valeur « 10 » si la variable en question est expliquée par les autres dans une proportion de 90 %, « 5 » si le pouvoir explicatif est de 80 %, « 2 »s'il n'est que de 50 %, etc. Dans la littérature économétrique, les problèmes sérieux de multicolinéarité ne surviennent que si le VIF atteint ou excède la valeur « 10 ». II.2.4. Présentation des outils de traitement des données Les traitements des données ainsi collectées par les outils de ODK Collect 1.1.4 ont été faits en utilisant conjointement le tableur d'Excel, et le logiciel SPSS 20 ainsi que le logiciel STATA 12. Le premier nous a servi pour réorganiser la base des données obtenues de l'application ODK, le deuxième nous a servi aux analyses descriptives et l'analyse de la variance et le dernier pour les régressions. Ainsi pour la prise en compte de la dépendance spatiale plusieurs logiciels n'intègrent pas ces analyse dans sa mémoire, y compris même STATA 12, mais certains logiciels statistiques proposent un package qui permet d'analyser le modèle avec la dépendance spatiale et d'estimer le degré de corrélation spatiale. Drukker, Prucha et Raciborski (2011) proposent le package spmat et gs2sls attaché sur Stata. La fonction spmat est destinée à construire la matrice de poids et la fonction gs2sls permet d'estimer le modèle spatial avec la méthode de moindres carrés généralisés en deux étapes (A Generalized Spatial Two-Stage Least Squares - GS2SLS). Bivand (2012) propose le package spdep attaché à R qui permet de construire la matrice de poids (avec le fonction knearneigh et dnearneigh) et d'estimer les paramètres de corrélation spatiale avec plusieurs méthodes possibles. LeSage et Pace (2009) donnent les codes Matlab pour analyser les données spatiales. Comme chaque logiciel dispose d'une mémoire interne différente, le choix du logiciel dépendra non seulement de l'objectif de l'étude mais aussi de la taille de la base de données et d'autres contraintes comme le niveau de la familiarité avec l'analyste. C'est cette dernière raison a permis d'orienté notre choix pour le logiciel Stata 12 avec trois principaux packages qui ont 56 été téléchargés et installés: spatwmat permettant de déterminer la matrice de poids, spatdiag pour le diagnostic de la dépendance spatiale ainsi que le package spatreg pour l'estimation par la méthode du maximum de vraisemblance du modèle SAR ainsi que du modèle SEM. 57 |
|