Всеки, който се занимава с уеб програмиране често се сблъсква с проблемите на браузерите и най-вече, че няма еднакъв стандарт в очите на разработчиците на браузери. Самите разработчици на браузери понякога прекаляват – всякакви бози писани от разни уеб “мастери” се парсват и се изкарват в някакъв приличен формат за потребителя, но помага ли това?
Ето за пример сайта на правителството(провала) ни достига до нас гражданите с екстрата от 928 Errors, 12 warnings – за мен това си е чисто безумие! Причината за това е твърде сериозната толератност на браузерите.
Не познавам друг софтуер, които да смята грешките за нещо незначително, дори за нормално освен браузерите. Не трябва да е така!
Има едно доста лесно и елегатно решение на проблема. Необходимо е само от Google да го приемат присърце: страници, които не се валидират да бъдат избутвани назад в резултатите. Защо да го правят? Първо така ще стимулират много от мастерите и сеотата да валидират кода си, второ така от Г ще са сигурни, че посетителите им виждат това, което и уеб мастерите искат да им покажат;)
В крайна сметка печелим всички, тъй като това ще спомогне за по-бързото рендване на страниците, което пък е по-малко натоварване на компютрите ни, това води до п0-малко разходи на енергия и в крайна сметка намаляване на сметките за ток и парниковия ефект! Малко сложна връзка, но всъщност е съвсем реална:)