Canalblog
Suivre ce blog Administration + Créer mon blog

Blogue des nouvelles technologies

25 novembre 2013

Enfin un réseau social ludique et pédagogique ! HABOUKI EST NE ! HABOUKI.COM ! LE SITE QUI MANQUAIT WWW.HABOUKI.COM

Je suis heureux , j'ai enfin trouvé un réseau social intelligent et surtout pédagogique pour mon fils de 10 ans. Ce dernier est passionné d'informatique, et j'ai trouvé le réseau social Habouki pour lui et pour nous.

Tout d'abord, ce qui me plait dans ce réseau social c'est qu'il y une sécurité optimale permettant de se protéger nos enfants du moindre problème.

Je me permets donc de cibler les qualités principales du site:

  • Le soutien scolaire: L'utilisateur peut envoyer des messages à des professeurs en ligne qui lui répondront sous 15 minutes au moindre problème scolaire et quelque soit le niveau de l'élève. Cette option qui est unique en son genre permet donc à de nombreux foyers de pouvoir recevoir un soutien de qualité par des professeurs expérimentés.
  • L'aide psychologique: L'enfant ou l'adolescent pourra ainsi se confier auprès d'une spécialiste et lui parler de ses problèmes à l'école dont il ne souhaite pas discuter avec ses parents. Cela peut être un refuge pour les enfants qui sont timides.
  • La sécurité: Le réseau social axe sa politique sur cette fonctionnalité. Habouki propose un système de sécurité totale avec la possibilité pour les parents de surveiller l'enfant et l'adolescent et d'avoir un vrai droit de regard sur l'activité cybernétique de sa progéniture.

En tout cas, j'avoue adorer ce site et surtout les nombreuses options qu'il propose comme des jeux, des liens, l'album photo , le soutien scolaire, l'aide psychologique ...

Le site est disponible

visuel_3_fr

Je vous laisse découvrir ce site à l'adresse suivant : WWW.HABOUKI.COM

Publicité
Publicité
25 novembre 2013

Les avancées récentes sur l’origine abiotique du pétrole et du gaz

Où en sont réellement les réserves pétrolifères ? Qui croire en matière de leur juste évaluation ? La théorie abiotique est à prendre en considération pour une nouvelle approche de la structure, la localisation et l'importance réelle des réserves d'hydrocarbure.

Note : Les données géologiques présentées appuient uniquement la théorie abiotique du pétrole. Ils ne prennent pas partie sur la théorie biologique.

Selon la théorie communément admise en Occident par la géologie, une infime fraction des roches sédimentaires est transformée en réserves d’hydrocarbures (gaz et pétrole notamment) sur des gammes de temps allant de la dizaine à la centaine de millions d’années.

De cette théorie, découle un fait majeur, les réserves d’hydrocarbures sont contraintes par les temps géologiques, largement supérieurs à ceux de notre civilisation. Cette limite a été théorisée par le géophysicien Marion King Hubbert. Elle indique que nos réserves en gaz et en pétrole ne vont plus être suffisantes dans un futur proche pour assurer la croissance de la population mondiale et son mode de consommation [1][2].

A l’opposé total de cette théorie, des chercheurs russes et ukrainiens ont suggéré dans les années 40-50 que la majeure partie du pétrole et du gaz se formerait de manière abiotique (non biologique) à l’intérieur de la terre. Selon cette théorie dont un historique a été écrit en 2006 [3], nos réserves en gaz et en pétrole sont largement sous-estimées.

Cet article synthétise les dernières avancées sur cette théorie qui révolutionne notre rapport aux réserves d’hydrocarbures, notamment à partir des travaux de Vladimir G. Kutcherov, Vladilen A. Krayushkin et d’Anton Kolesnikov [4][5].


I - Théorie de l’origine abiotique des hydrocarbures et résultats expérimentaux 

Cette théorie explique que les composés d’hydrocarbures sont générés dans le manteau terrestre (enveloppe terrestre comprise entre 30 km et 2900 km de profondeur). Ces composés migrent à travers des failles profondes dans la croûte (enveloppe terrestre comprise entre 0 et 30 km de profondeur), pour s’accumuler dans des réservoirs géologiques localisés dans le socle cristallin constitué de roches magmatiques et métamorphiques et dans les dépôts sédimentaires superficiels.

Le pétrole aurait donc aussi une origine minérale en plus d'une origine biologique.

 

Cette théorie était difficilement expérimentable jusqu'à tout récemment car il était impossible à l’homme de reproduire les conditions du manteau supérieur. Cependant, grâce à l’amélioration récente des techniques d’expérimentation et d’analyse chimique du manteau supérieur, les résultats obtenus par des groupes de recherches indépendants dans différents laboratoires confirment le postulat de la théorie abiotique.

Dans le manteau terrestre, des hydrocarbures lourds (éthane, butane, propane) peuvent spontanément se former entre 70 et 250 km de profondeur, à partir du méthane, et migrer à la surface pour donner des gisements de gaz et de pétrole. Ces résultats ont été publiés dans la prestigieuse revue Nature en 2009 [6].

A travers le monde, l’étude chimique sur :
- des gisements gaziers et pétroliers,
- des inclusions de fluides d’hydrocarbures emprisonnés par des diamants formés dans le manteau,
- ou encore sur des systèmes hydrothermaux océaniques
indique bien que des fluides d’hydrocarbures migrent verticalement du manteau pour s’accumuler dans la croûte [4][7][8][9][10][11].

II - La structure, la localisation et la taille des gisements de pétroles et de gaz, des arguments majeurs pour une origine abiotique

A) La structure des gisements de gaz et de pétrole

A partir des lois hydrodynamiques utilisées par la théorie biologique, qui veut que le gaz s'accumule en gisement, la structure en cuvette (= forme dite en synclinal) des bassins sédimentaires ne doit pas permettre la concentration de gaz. Or, les auteurs ont étudié de nombreux gisements de gaz situés dans des bassins sédimentaires, par exemple à Milk River (Alberta, Canada) ou San Juan (Colorado, États-Unis).

Un autre exemple mettant à mal la théorie biologique est le bassin de Dnieper-Donestk (Ukraine). En effet, la structure du flanc nord de ce bassin ne permet pas l’accumulation de pétrole commercialisable en gisement. Or dans les années 80-90, 67 forages ont été effectués et 37 ont permis une production commerciale dans ce secteur. Actuellement, il en existe 50.

 

B) La localisation des gisements gaziers et pétroliers


Le socle cristallin

496 gisements de gaz et de pétrole ont des réserves qui se situent partiellement ou entièrement dans le socle cristallin non sédimentaire. Ce qui est normalement impossible par la théorie biologique qui stipule que les hydrocarbures ne doivent se former et être stockés que dans les sédiments qui sont situés au dessus du socle cristallin.

Le bassin de Dnieper-Donestk (Ukraine) en est un exemple majeur. 15 réservoirs de gaz et de pétroles s’intercalent entre les roches sédimentaires et le socle cristallin et 5 réservoirs d’hydrocarbures ont été trouvés dans le socle cristallin à des profondeurs parfois supérieures à 760 m en dessous du sommet du socle.

La profondeur

Selon la théorie biologique de formation du pétrole, la profondeur de formation du pétrole se situe entre 2 à 4 kilomètres de profondeur (= Fenêtre à huile), et dans des cas exceptionnels à un maximum de 8 km. A des profondeurs plus grandes, la température augmente et fait disparaître les réserves de pétroles au profit du gaz.

Contredisant totalement la théorie biologique, 1000 gisements de pétrole et/ou de gaz sont exploités dans le monde (Russie, Ukraine, USA, Mexique) avec des forages allant à des profondeurs comprises entre -4500 mètres et -10685 m dans le sous-sol.


Les cratères d’impact météoritiques

De nombreux gisements de gaz et de pétrole exploitables sont localisés dans d’anciens cratères d’impact météoritiques qui ont frappé la terre au cours des temps géologiques (Golfe du Mexique, États-Unis).
Kutcherov, Kolesnikov et Krayushkin expliquent que ces impacts permettent aux hydrocarbures abiotiques formés dans le manteau de remonter et de s’accumuler en gisement de gaz et de pétrole dans les cratères d’impact.
Cette hypothèse indique qu’il existe de nombreux gisements de gaz et de pétroles inexploités car tous les cratères d’impact n’ont pas encore été découverts.

C) La taille des gisements gaziers et pétroliers

Dans de nombreux bassins sédimentaires où sont localisés de grands gisements de gaz et de pétrole (Arabie Saoudite, Venezuela, Canada, Russie), les réserves estimées à partir des techniques modernes sont en désaccord avec les volumes prévus par une origine biologique de ces gisements.

III - Des réserves de gaz et de pétroles largement sous-estimées

A partir de calculs de densité sur des inclusions de fluides d’hydrocarbures dans des diamants, Kutcherov, Krayushkin et Kolesnikov indiquent que potentiellement nos réserves de gaz et de pétroles pourraient être multipliées d’un facteur de l’ordre du million.
De plus, ils soulignent que l’estimation des réserves d’hydrates de gaz contenus au fond des océans et l’avancée des techniques pour en extraire le gaz pourraient fournir à notre civilisation ce combustible pour plusieurs milliers d’années.

Pour finir, de nombreuses preuves de remplissage de gisements ont été observées. L’un des exemples le plus important est le gisement de pétrole dans la République du Tatarstan (Russie). Les chercheurs russes ont montré que des réserves de pétrole sont périodiquement réalimentées par des hydrocarbures légers (gaz), provenant du manteau terrestre [11][12].


Conclusion 
 

Les conclusions générales des auteurs sont les suivantes :
- Les résultats expérimentaux et les investigations géologiques indiquent que des composés d’hydrocarbures peuvent être formés dans les conditions pression/température du manteau, avoir migré à travers des failles profondes et former des dépôts de gaz et de pétrole dans tout type de roche et de position structurale.
- La théorie abiotique du pétrole confirme la présence d’énormes ressources non-exhaustives d’hydrocarbures sur notre planète au fond des océans. Cette théorie permet le développement d’une nouvelle approche pour l’exploration pétrolière et réexamine la structure, la taille et la localisation des réserves d’hydrocarbures.

25 novembre 2013

L’hégémonie Google : démocratisation censitaire ou fascisme ordinaire ?

Est-il possible encore aujourd'hui qu'un site internet nouveau né puisse prétendre se faire une place au soleil ? Quel rôle joue Google dans cette possible ascension ?
 
Quels sont les facteurs essentiels qui peuvent conduire aujourd'hui un site internet de l'anonymat vers la célébrité ?
Est-ce seulement possible ? 
Ce sujet complexe est abordé en termes les plus simples possibles, afin que le lecteur néophyte puisse s'y retrouver, mais attention, c'est aussi un article de fond, résolument technique, qui passe en revue les fondamentaux du référencement.
 
 
A l'heure actuelle, l'affluence d'internautes sur un site est essentiellment constituée par un flux de visiteurs en provenance de l'outil de recherche Google.
 
Il est vrai que certains internautes mettent des sites "en favori", c'est à dire qu'ils demandent à leur navigateur (Firefox, Google Chrome, Internet Explorer...) de conserver dans une liste l'adresse du site qui les intéresse.
Ils peuvent ainsi y accéder sans passer par un moteur de recherche.
Mais le comportement le plus fréquent de l'internaute n'est pas d'utiliser les favoris.
Il retourne systématiquement sur Google et entre les mots clés qui font l'objet de son interrogation du moment.
Cela explique l'extrême importance de Google, qui est devenu la porte d'entrée presque universelle vers le web.
 
Un autre comportement fréquent de l'internaute est de se contenter de prendre le premier résultat proposé tout en haut de la page de résultats de recherche de Google.
 
ADVERTISEMENT
On constate, lorsqu'on est propriétaire d'un site, que seules les premières positions dans ces listes de résultats de recherche permettent de créer un trafic substantiel.
Il y a des différences très importantes de trafic généré par la première place et les suivantes.
Ainsi, la seconde place peut générer jusqu'à deux fois moins de trafic que la première ! 
 
Les statistiques montrent qu'un internaute sur trois choisit le premier résultat.
Et que 90% des internautes iront sur l'un des résultats de recherche de la première page de résultats, c'est à dire sur l'un des 10 premiers résultats.
Il est donc tout à fait capital pour un site qui désire être rentable, et donc d'avoir un fort trafic, d'être très bien référencé par google.
Et ceci sur des mots clé souvent tapés par les internautes bien sûr.
Si vous êtes en première position sur la liste des résultats de recherche chez Google sur le mot clé "kryptonite", ou "anticonstitutionnellement", ou "chlorophylle", cela vous fera peut-être plaisir, mais ne vous ramènera que quelques internautes chaque année vers votre site.
 
La question du référencement par google est donc un point fondamental pour la plupart des sites, sauf pour les sites qui ont une marque déjà connue du grand public.
Si vous voulez trouver un voyage proposé par la SNCF, vous allez taper "sncf" dans google et tomber immédiatement sur leur site, même si celui-ci n'a mené aucune stratégie pour être bien référencé. 
"sncf" n'est pas un mot clé concurrentiel, et donc le ou les sites de la sncf apparaîtront forcément en premières positions.
Même chose pour "leboncoin" par exemple, très connu désormais des internautes français.
 
Pour tous les autres sites, il faudra impérativement, pour se faire connaître, passer par un bon référencement chez Google.
 
 
Or, comment fonctionne le référencement chez Google ?
 
 
Admettons que vous vouliez lancer un site pour une nouvelle marque de chaussures à la mode.
Appelons cette marque "Leluxe".
 
Personne ne connaît encore votre marque "Leluxe" et donc vous allez devoir essayé d'être correctement référencé par Google sur, par exemple, la combinaison de mots clé : "Chaussure mode cuir" par exemple.
Vous désirez que lorsqu'un internaute tape cette combinaison de trois mots clé sur Google, votre site soit présent parmi les premiers résultats proposés alors par Google.
 
 
Comment y parvenir ?
Il faut connaître quelques points essentiels pour pouvoir envisager une réponse à cette question.
 
Il faut savoir tout d'abord que google va, presque chaque jour, passer sur votre site et l'ausculter : il s'intéresse principalement aux textes et aux liens présents sur vos pages, ainsi qu'au positionnement de ses derniers sur vos pages ( en haut, au milieu, en bas, à droite, en milieu d'article, dans un titre, en petit, en gros, en gras...).
 
Il faudra donc que les mots clés tapés par les internautes dans google soient présents en quantité suffisante et placés correctement sur votre site pour que Google "comprenne" que ces mots caractérisent effectivement votre site.
Vous aurez intérêt par exemple à mettre en entête, en haut des pages de votre site : "LELUXE, la chaussure mode en cuir", plutôt que quelque chose du genre "LELUXE, intense sensation de plaisir au contact du sol".
J'invente n'importe quoi juste pour vous montrer qu'il ne vous faudra pas - en ce qui concerne cette histoire de mots clé - être forcément inventif et poétique mais plutôt extrêmement prosaïque : les internautes ne taperont jamais "plaisir sol" pour trouver une chaussure de luxe. Mais ils pourront effectivement taper "chaussure mode cuir".
Il faudra donc placer un nombre conséquent de "chaussure", "mode" et "cuir" dans votre entête, dans vos titres, sur vos liens et dans vos articles.
Il existe nombre de sites spécialisés dans le référencement qui vous décriront comment optimiser cela.
 
Le premier principe est donc simple :
 
Il faut repérer les mots clés que vont utiliser les internautes chez Google, et favoriser la présence de ces mêmes mots clés sur votre site.
 
 
Le deuxième est qu'il faut avoir du contenu, donc du texte.
 
Google ne s'intéresse guère aux images.
Donc, si nous revenons au cas de notre boutique fictive "Leluxe", il faut - si vous voulez vendre vos chaussures - rédiger des descriptions pour chaque modèle de chaussures.
Les photos des chaussures, peut-être parfois suffisantes pour l'internaute, ne le seront pas pour Google.
Et d'une manière générale, quelque soit le site en question, plus le volume global de texte sera important, et mieux cela sera.
 
 
Un troisième point, probalement moins important, est de gérer vos liens internes, ceux qui pointent d'un endroit de votre site vers un autre endroit de ce même site.
Certains spécialistes pensent par exemple qu'il faut se débrouiller pour que tout votre contenu soit accessible en quelques clics seulement (5 ou 6 au maximum).
Mais de toute façon, vous tendrez naturellement à mettre en place une circulation dans votre site qui soit la plus simple et la plus rapide possible.
Vous le ferez naturellement pour que votre visiteur puissent trouver ce qu'il cherche sans perdre patience.
C'est logique.
 
D'autres spécialistes vous diront aussi qu'il faut faire des liens "transversaux" à l'intérieur de votre site, afin que les pages qui vous semblent importantes dans votre site puissent être atteintes par différents chemins.
Je vous laisse vour rapporter aux différentes informations déjà présentes sur le web à ce sujet.
 
 
 
Voilà, nous venons de faire le tour des points essentiels à prendre en compte dans la constitution de votre site.
 
Et oui, c'est tout !
 
Vous avez déjà là le principal.
 
Vous voyez que ce n'est donc absolument pas sorcier de mettre en place sur votre site les points élémentaires qui permettent d'améliorer votre référencement chez Google.
 
C'est du travail certes, notamment la fabrication de textes originaux et si possibles variés et inventifs pour décrire vos produits, si vous avez un site de e-commerce.
 
Mais c'est à la portée de n'importe qui veut bien mettre du coeur à l'ouvrage.
 
Nous voilà obligé d'aborder le dernier point essentiel, mais celui-là est absolument CAPITAL, car c'est en réalité lui qui fera TOUTE la DIFFERENCE entre votre site et celui de vos concurrents.
 
Vos concurrents ne sont pas plus bêtes que vous, et auront un joli site avec les bons mots clés dans les titres, de nombreux et beaux textes originaux, une navigation confortable... mais tout cela n'est qu'un amuse-gueule, un simple préliminaire, qui ne vous conduira qu'au néant et à un site sans visiteurs si vous ne faites pas le travail qui suit : 
 
Ce qui va faire la différence avec vos concurrent et qui deviendra donc le coeur de votre stratégie, c'est ce qu'on appelle le "backlinking".
 
Mais qu'est-ce donc que ce "backlinking" ?
 
Et bien chaque fois qu'un site met sur une de ses pages un lien qui pointe vers votre propre site, ce lien est nommé "backlink".
 
 
 
 
Les ingénieurs de Google ont choisi depuis longtemps de se baser sur le nombre et la qualité de ces backlinks pour établir la popularité d'un site. Pour eux, plus de liens pointent vers votre site, et plus votre site est populaire. 
 
En quelque sorte, chaque lien pointant vers votre site est une sorte de "vote" POUR votre site.
 
Et Google a défini un indice de ce type de popularité qu'il appelle le PageRank.
 
Et si votre site a un fort PageRank, alors il apparaîtra d'autant plus facilement en haut des résultats de recherche chez Google.
Si votre site "Leluxe" obtient un PageRank de 5, vous serez alors peut-être bien le premier des résultats de recherche avec les mots clé "chaussure mode cuir".
Si votre site "Leluxe" obtient un PageRank de 8, vous serez même peut-être bien le premier résultat de la recherche avec le mot clé pourtant très concurrentiel "chaussure" !
 
D'autre part, selon certains spécialistes du référencement, il vaudraitmieux que ce lien qui pointe vers votre site, appelé backlink donc, soit présent sur un site qui parlerait de mode ( par exemple qui ferait des articles sur des défilés de mode ), plutôt que sur un site qui parlerait d'un sujet non connexe au vôtre.
 
Autrement dit, le "vote" d'un site au sujet éloigné du vôtre, a moins de poids que le "vote" d'un site au sujet connexe. 
 
De même que le "vote" d'un site au fort Pagerank aura beaucoup plus de poids que le "vote" d'un site au Pagerank faible.
 
Vous voyez que Google a établi des règles de "vote", et il vous faudra les connaître et établir vos stratégies en fonction d'elles.
 
Vous trouverez peut-être ces règles logiques.
Ou illogiques, qui sait.
Par exemple : imaginons qu'un bloggueur passionné par les meubles anciens en bois crée un blog à ce sujet.
Imaginons, que PAR AILLEURS, il soit aussi un passioné et donc un super spécialiste des chaussures en cuir et qu'il fasse un lien dans sa section "sites que j'aime" vers votre site.
En quoi son "vote" pour votre site serait-il moins pertinent que le "vote" d'un autre site traitant de la mode ?
Imaginons encore qu'un autre bloggueur, fan de vêtement à la mode, tenant donc cette fois-ci un blog sur le même sujet que le vôtre, trouve que vos produits sont vraiement intéressants en terme de prix et fasse un lien vers votre site, alors qu'il ne connaît en réalité RIEN au cuir et qu'il ne peut pas faire de différence entre une paire de chaussures qui va durer une vie et une autre paire moins chère qui va durer deux ans.
En quoi son "vote" est-il pertinent ?
De la même façon, et pour les mêmes raisons, on pourra s'interroger de la réelle pertinence du "vote" d'un site à gros PageRank, comparée à celui d'un site à faible PageRank.
Surtout si on sait que les sites à gros PageRank travaillent énormément leur stratégie de liens, et que donc la motivation à placer un lien vers un autre site sous-tend à priori qu'il en tire un quelconque bénéfice.
 
 
 
 
De plus, vous avez aussi maintenant bien compris que les "votants" ne sont pas "Monsieur tout le monde".
 
Les votants sont ... les propriétaires de sites internet.
 
On dénombre entre 2 et 3 millions de sites internet en France.
 
Donc les votants sont inférieurs en nombre à 5% de la population globale.
 
Et les règles de votes ne sont pas fixées de façon démocratiques, mais par un seul organisme, Google, qui les choisit de la façon la plus obscure et la plus aléatoire qui soit, et ne donnant à leur sujet que des informations au compte goutte et dont on ne sait jamais réellement si c'est de l'enfumage ou des informations pertinentes.
 
Les règles sont susceptibles de changer inopinément et à tout moment.
En 2012, Google met au point des algorithmes (PANDA et PINGOUINS), qui pénalisent notamment les sites qui étaient très optimisés au niveau de la stratégie des mots clés, et redonne une pleine prépondérance aux sites qui ont un bon PageRank.
 
Il faut donc dorénavant absolument "faire du backlink". C'est primordial.
 
Certains sites, comme Amazon, n'ont pas besoin de vraiment mettre de l'énergie dans ce domaine : comme ils ont des milliers d'affiliés qui revendent les produits Amazon sur leurs propres sites, ils ont naturellement d'énormes quantités de backlinks.
 
Mais sinon, comment faire ?
 
Même si votre site est vraiment très intéressant, et que certains autres sites, par exemple des bloggueurs, mettent naturellement un lien vers votre site dans leurs articles ou dans leur section "les sites que j'aime", et bien cela risque fort de ne pas être suffisant.
Car il faut savoir que, par exemple, il vous faudra environ 100 000 liens de sites de PageRank nul ou égal à 1, pour que vous atteignez un PageRank de 6.
 
Ca vous laisse le temps de voir venir...
 
Autrement dit, la seule stratégie percutante pour devenir un site populaire, serait que des sites qui ont déjà une forte popularité fassent des liens vers votre site.
 
Mais ces sites, comme je vous le disais plus tôt, ont des stratégies très rigoureuses au niveau des liens, et ne font donc pas des liens vers d'autres sites, sauf si ils peuvent en tirer bénéfice.
 
Alors vous ? que pourriez vous bien leur proposer en échange ? ? ? ?
 
Et bien rien.
 
(sauf si vous avez beaucoup d'argent bien sûr, mais vous n'en avez pas, n'est-ce pas ?) 
 
Ces sites ne feront donc en général pas de liens vers vous.
 
Il vous sera donc extrêmement long et difficile de devenir populaire aux yeux de Google.
 
 
 
Donc pour résumer :
 
- le "vote" dont dépend votre visibilité sur internet est réservé à moins de 5 % de la population française.
- chaque "vote" n'a pas le même poids, et les "votants" qui comptent vraiment ne représentent qu'une fraction infime de ce groupe déjà réduit.
- de plus, les "votants" qui ont vraiment du poids n'ont aucun intérêt à voter pour vous.
 
Elle est pas belle la vie ?
 
Je pense qu'avec les informations présentes dans cet article, vous comprendrez désormais pourquoi ce sont pratiquement toujours les mêmes sites qui trustent les premières places des résultats de recherche, et que nous pouvons faire le pari que cette situation perdurera longtemps.
 
En mettant en place un système de "vote" parmi les propriétaires de sites eux-mêmes, qui élisent donc entre eux quels sont les meilleurs sites, Google a créé un système pratiquement verrouillé, où les grands sites s'adoubent les uns les autres, maintenant tous les autres dans un statut d'infériorité quasiment rédhibitoire.
 
Retenez que, désormais, quelque soit le réel intérêt de votre site, il vous faudra prévoir un budget très conséquent si vous voulez le faire connaître auprès du grand public.
Vous ne pourrez pas compter sur Google pour repérer en quoi votre site serait meilleur ou même simplement aussi intéressant que les autres.
Vous devrez donc considérer que votre aventure sur le web doit être construite comme un projet d'entreprise tout à fait classique, où votre budget marketing représentera un fort pourcentage de vos investissements...
Source: Agoravox.fr
25 novembre 2013

De plus en plus de villes intelligentes en France

Expression de plus en plus populaire auprès des médias et des élus locaux, la « ville intelligente » ou « smart city » interroge sur ce que sera la ville de demain. Derrière cette idée d’« intelligence », c’est une remise à plat complète des services publics et de la place du citoyen qui est en cours.

 

Un palmarès des 50 « villes intelligentes » en France a été présenté lundi 18 novembre par la société m2ocity, spécialisée dans l’internet des objets (la communication autonome de données entre machines). Les grandes gagnantes de ce classement sont, dans l’ordre, Lyon (1ère), Lilles, Nantes et Issy-les-Moulineaux (4ème).

 

Qu’est-ce qu’une ville intelligente ?

Pour départager les communes, 8 critères ont été retenus, parmi lesquels la qualité du réseau télécom (internet, mobile), la gestion des services de la ville (énergie, eau, déchet, transport), et, plus inattendus, la communication municipale (open data…) et la qualité du cadre de vie (usages des lieux publics…). La nouveauté de la ville intelligente, c’est de ne plus considérer indépendamment ces différentes dimensions, mais, au contraire, de créer des synergies entre elles en vue de rendre la ville plus confortable et plus efficace.

 

Une montée en puissance de la smart city

Pour parvenir à créer ces synergies, « internet constitue à la fois un prérequis, un facilitateur et un accélérateur  ». Le maître-mot de la ville intelligente est en effet la communication, celle des humains mais aussi des machines

 

En mettant en réseau les différents services publics de la ville, il devient possible de les adapter plus précisément aux usages des habitants, de faire « la chasse aux irritants  » qui nous gênent au quotidien. A Issy-les-Moulineaux, les dimensions transport et énergie se rencontrent : l’éclairage public se déclenche en fonction du trafic ou lorsque la luminosité naturelle diminue. C’est à la fois une source de confort pour les citadins, mais aussi une source d’économie pour la commune.

 

La ville intelligente ne repose néanmoins pas que sur des automatismes, l’appropriation par les habitants est essentielle. A côté de Nice (à la 6ème place du palmarès), c’est une nouvelle forme de solidarité de quartier qui se crée. En suivant la consommation et la production d’énergie verte à l’échelle du logement et du quartier, les habitants s’échangent de maison en maison l’électricité produite par leurs panneaux photovoltaïques.

Pour l’heure, la smart city à la française repose essentiellement sur la rencontre du numérique et de l’énergie. La ville de Lyon en est un exemple flagrant : les projets de gestion de l’énergie y font florès (Smart Electric Lyon, GreenLys, Lyon Smart Community…). Désormais le principal cap à franchir pour les 50 villes pionnières est de s’ouvrir à d’autres services publics et surtout de renforcer le dialogue avec leurs citoyens pour qu’ils en tirent le meilleur profit.

 

 

Source: Agoravox.fr

 

 

 

 

 

 

 

 

Publicité
Publicité
Blogue des nouvelles technologies
Publicité
Archives
Publicité