Это хорошо?
Google / % страниц не под фильтрами  -  16,600 / 0 %            
                        
         
            
            
            
                Pillott (23.01.2012/10:14)
hooligan,  с помощью .htaccess RewriteEngine On
RewriteCond %{HTTP_HOST} ^www\.site\.ru$ [NC]
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]
 это если основной сайт без www
А ещё можно в 
site.ru
нужно изменять на свой ?? или оставить так ??            
 
                        
         
            
            
            
                Книга "Л. Гроховский - Руководство по внутренним факторам" Эта книга кардинально отличается от аналогичных изданий: она написана оптимизаторами для оптимизаторов и является первым изданием по теме внутренних факторов в SEO. Авторы соединили свои разноплановые познания в области внутренней оптимизации и смогли простым языком изложить сложный материал. Теперь вы можете воспользоваться актуальной информацией и применить новые знания в своей практике, наиболее полно задействовав потенциал собственного сайта и улучшив его позиции в выдаче поисковых систем. Книга написана в соавторстве с лучшими аналитиками нашей профессии – Станиславом Ставским, Михаилом Сливинским и Алексеем Чекушиным. — Леонид Гроховский, руководитель проекта «ТопЭксперт.РФ»
http://spaces.ru/files/?sid=78 ... 85666             
                        
         
            
            
            
                Выяснил экспериментальным путем, что яндекс умеет отличать не только зеркала сайтов и сбрасывать по сути их в утиль, но он так же умеет отличать дубли страниц. Например одна и та же страница 
/download/ и 
/download/index.php доступна по разным адресам и это очень плохо в плане оптимизации. Так вот, яша эти дубли тоже в утиль пускает, он определяет один какой-то адрес и индексирует его, а дубли просто не попадают в индекс, при наборе дублей в поиске выдает "по вашему запросу ничего не найдено". Чего нельзя сказать к сожалению про другие поисковики. Гугл на один и тот же файл может выдать два или три адреса и все это в индексе 
             
                        
         
            
            
            
                Kip-OK,  Что нормально, дубли страниц? Это не хорошо.            
                        
         
            
            
            
                то что яша дубли выкидывает. ибо действительно по запросу одну ссылку на каждый сайт лучше чем 10 на один            
                        
         
            
            
            
                Kip-OK,  а ну да, я про то же самое. Это хорошо что создатели яндекс-робота научили его разбираться в таких вещах как зеркала сайтов и дубли страниц и печально что до этого пока не дошли другие разработчики поисковиков.            
                        
         
            
            
            
                гугл показал: Результатов: примерно 53 000 (0,10 сек.)
Это хорошо или как?