
ADEQUATION a une relation particulière avec la donnée immobilière. Pouvez-vous nous expliquer cette approche ?
Nathalie Grasset. ADEQUATION est effectivement un des pionniers de la donnée immobilière. Depuis près de 30 ans, notre vocation est de fiabiliser et collecter la donnée directement auprès des acteurs du marché. Nous sommes une des rares entreprises à collecter en direct auprès des acteurs, puis à restituer cette donnée pour les aider à prendre des décisions, mais avec une donnée réelle et pas une donnée scrapée ou algorithmée.
Le périmètre de collecte s’est beaucoup enrichi car les problématiques immobilières sont de plus en plus complexes, hybridées, parfois multi-assets. Elles embarquent la gestion de la demande, des éléments bâtimentaires… Les flux de données qu’on agrège sont donc de plus en plus riches et variés pour répondre aux besoins d’hybridation de nos clients.
Comment percevez-vous le niveau de sensibilité des acteurs à cette question de souveraineté des données ?
Pour ADEQUATION, c’est un sujet central puisque nos données servent à prendre des décisions de plusieurs millions d’euros et à engager des stratégies d’entreprise. Faire que cette donnée soit entre les mains de tiers qui peuvent la manipuler, la modifier, lui faire dire des choses qui ne correspondent pas à la réalité, ça pose un vrai sujet de libre arbitre propre aux enjeux de souveraineté.
L’arrivée de l’IA générative a créé une dissonance. Elle donne une impression de facilité dans l’accès à la donnée, fait naître de multiples besoins, au détriment de la rigueur qui doit nécessairement entourer la gestion de la donnée. La facilité de l’IA va plus vite que la qualité de la donnée, et il y a un déséquilibre entre les deux.
Constatez-vous une prise de conscience au niveau des directions générales ?
Nous observons en effet différents niveaux de préoccupations. Certains sont déjà confrontés à un problème d’accès à leurs propres données, fragmentées dans des solutions externes. Pour eux, l’enjeu premier est déjà de pouvoir accéder à la donnée pour faire émerger une vision transversale.
Ceux qui ont accès à leurs données travaillent d’abord à un usage interne – optimiser leur fonctionnement, croiser leurs données internes pour faire apparaître des gains de productivité et des sujets d’optimisation.
Enfin, il y a ceux qui enrichissent leurs données internes avec de la donnée externe pour construire de nouvelles offres, de nouveaux modèles économiques. C’est ici que résident selon nous les véritables gisements de création de valeur pour la filière immobilière.
En quoi est-ce vraiment un impératif stratégique pour l’immobilier ?
La donnée est un peu comme l’argent dans l’économie – un vecteur de fluidification. Celui qui est dépendant de la data a moins de marge de manœuvre en termes de négociation, est moins autonome dans ses décisions. On a des impacts sur les coûts, les budgets, les orientations stratégiques.
De manière triviale, je peux avoir tous les KPI internes que je veux, mais si je ne me benchmark pas par rapport à mes concurrents, par rapport au marché, c’est comme conduire sans regarder la route. Nous observons que beaucoup d’énergie est passée en interne alors qu’il faut rapidement se comparer au monde extérieur et décider de manière agile en temps de crise.
Et chez ADEQUATION comment accompagnez-vous ce mouvement ?
ADEQUATION se positionne et est perçue depuis de nombreuses années comme une société de confiance. Nous avons dernièrement investi sur une plateforme souveraine pour garantir que la donnée confiée par les clients soit gérée dans un contexte légal et sécurisé.
Les données sont stockées en France sur des stacks techniques liés à de l’open source, donc non soumises aux lois extraterritoriales américaines. Nous ne pouvons pas avoir d’irruption d’un acteur non souverain sur nos infrastructures. C’est un choix fort et assumé d’ADEQUATION envers ses clients.
Pour finir, un message que vous souhaiteriez recommander aux dirigeants de l’immobilier ?
C’est toujours difficile de donner des conseils aux dirigeants de l’immobilier car c’est un sujet qui doit être abordé avec beaucoup de nuances et de pragmatisme.
Néanmoins, il est intéressant de se poser quelques questions sur la qualité de la donnée : quelle est la part de sourcing direct par rapport aux données algorithmées ? Mon fournisseur est-il souverain en termes de données et d’hébergement ?
Le vrai sujet, c’est que la décision d’achat se fait encore trop souvent sur les fonctionnalités de l’outil et rarement sur l’interopérabilité de l’accès à la donnée. C’est pourtant d’abord un choix contractuel, un choix de gouvernance. Il faudrait probablement intégrer dans ces décisions plus de KPI qui garantissent la qualité de données et des clauses spécifiques sur la souveraineté des infrastructures de traitement.