Freigeben über


Un nouveau venu :)

En ce 21ième siècle, à l’heure du tout numérique, toute information a vocation à être « donnée » et toute donnée représente potentiellement un facteur clé pour la réussite, l’image, etc. d’une organisation, qu’il s’agisse d’un acteur du Secteur Public, d’un organisme de recherche ou d’une entreprise.

Dans ce contexte, deux mouvements récents, parmi la multitude existante autour des données, s’imposent sur le « devant de la scène » : l’Open Data ou les données publiques et les Big Data, terme né du « déluge de données » auquel doivent faire face les organisations.

Ces derniers intègrent et reflètent au mieux nous semble-t-il les enjeux d’aujourd’hui et de demain et auxquels il est nécessaire d’apporter une réponse pertinente.

D’un côté, l’Open Data jouit d’une réputation et d’un intérêt grandissants auprès de l’Administration et des collectivités territoriales. En effet, en plus de participer activement à la modernisation des acteurs publics qui les mettent en œuvre et de permettre l’optimisation de la dépense publique, les projets Open Data constituent une opportunité d’innovations démocratiques, sociales et économiques inédites comme développés dans un précédent billet et des accélérateurs comme OGDI DataLab, ODAF OpenTurf, etc. que les lecteurs de ce blog connaissent bien permettent de « prendre pied » très rapidement dans le mouvement Open Data et d‘établir dans les meilleurs conditions et à moindre coût un écosystème applicatif performant et innovant. Le Gartner voit dans l’Open Data une meilleure valeur (Cf. Big Data Is Important, but Open Data Is More Valuable: Gartner).

De l’autre, les Big Data sont considérées comme une des plus grandes problématiques du 21ième siècle. Les DSI les poussent, les analystes veulent les utiliser, et plus généralement tout le monde veut acquérir de nouvelles connaissances qui aideront leur organisation à croître et à prospérer. Pour autant, les outils maîtrisés sont, pour la plupart, inadaptés et les moyens de charger, transformer et analyser cette masse de données (de l’ordre du Téraoctet ou du Pétaoctet) nécessitent des connaissances et des compétences, actuellement, extrêmement difficiles à trouver sur le marché du travail. On serait tenté de dire “Big Data Big Problems” ;)

Dans ce véritable « déluge de données » auquel doivent faire face les organisations, il devient difficile de se repérer et d’extraire l’information utile. Sans surprise, on constate donc dans ce contexte un besoin croissant de stocker et d'analyser de grandes quantités de données (non structurées). Il est également possible de parler de « révolution des données » dans lequel les acteurs ne sont plus seulement les organisations elles-mêmes mais également l’ensemble de la population et l’ensemble des nouveaux terminaux connectés (Internet des données) ouvrant ainsi la voie à une augmentation exponentielle des données dites non structurées.

Compte tenu de la variété des situations à prendre en considérations et, avec la même volonté d’apporter des réponses les plus concrètes possibles, le nouveau blog MSDN Big Data France (aka.ms/BigDataFrance) vous propose d’entrer de façon pragmatique dans ce monde du #BigData avec la mise en avant de problématiques données assorties de la proposition de scénarios/solutions type prêts à l’usage.

Ce blog sera également l’occasion de faire des focus particuliers sur la mise en œuvre pratique d’une technologie particulière dans le contexte des solutions Microsoft pour le Big Data.

Nous espérons vous compter parmi les lecteurs (et commentateurs) réguliers de ce blog :)