- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Выдумывать велосипед стоит только для саморазвития. Сильные команды уже реализовали всё необходимое (и более того)...
Выдумывать велосипед стоит только для саморазвития. Сильные команды уже реализовали всё необходимое (и более того)...
Блин, прям цитата. Да, я люблю выдумывать велики, хотя всё уже придумано до нас. Ну нравится мне создавать простые HTML сайты вместо установки WordPress ради 10 страниц. А благодаря описанному в топике подходу, еще и обновлять их можно будет более эффективно.
Великие Гуру, вот вы меня лучше носом ткните где почитать как правильно внутреннюю структуру сайта создать. Поясню, что я имею ввиду. Вот есть технология сокрытия ссылок, т.е. для ПС моя HTML страница будет выглядеть как чистый контент только с теми ссылками какие я хочу показать. Как правильно организовать ссылочную структуру сайта?
Блин, прям цитата. Да, я люблю выдумывать велики, хотя всё уже придумано до нас...
а может стоит заняться самообразованием, перед тем как кидаться решать примитивные задачи? ознакомиться с существующими решениями, что бы не создавать заведомо кривой клон уже существующего решения?
... А благодаря описанному в топике подходу, еще и обновлять их можно будет более эффективно ...
если вы считаете, что функциональность CMS/фреймока целиком заключается в "инклудах" контента, то с образованием точно беда. задача которую вы перед собой поставили очевидная и абсолютно частная, мизерный кусочек требуемого функционала.
сначала попробуйте просмотреть пару популярных js-фреймворков - Dojo, YUI, Backbone и т.п. ваша "фича" давно и надёжно реализована разными методами с разной степенью изящества.
хотя можете сразу залезть в AngularJS - крышу сорвёт, но возможно поймёте, что не стоит тратить время на "игру в песочнице", а эффективнее заняться изучением накопленного другими опыта...
Спасибо за заботу о моем образовании, мне его действительно очень часто не хватает. Для моих проектов вполне хватит JQuery и у меня действительно утилитарная задача. Мне уже привели ссылку которая мне помогла в принятии решения.
Мне сейчас интересно как используя этот подход оптимизировать внутреннюю ссылочную структуру. А то пока то что попадается, как-то водянисто все. Да и устаревают наверное все эти приёмы. Наверное мне стоит по этому вопросу другой топик создать.
Вы меня поймите правильно, по поводу JS-фреймворков и т.п. это правильно все, но для моих целей этого не нужно - из пушки по воробьям...
... Вы меня поймите правильно, по поводу JS-фреймворков и т.п. это правильно все, но для моих целей этого не нужно - из пушки по воробьям...
угу, кто бы сомневался.
но вот если получаемый броузером код самой "пушки" весит меньше 7 Кб (Backbone)? заодно обеспечивая хеш-навигацию и поддержку MVVC? видимо тоже нафиг - из принципа свой костыль нацарапаем, пусть кривой и огромный, но свой...
но вот если получаемый броузером код самой "пушки" весит меньше 4 Кб (Backbone)? заодно обеспечивая хеш-навигацию и поддержку MVVC? видимо тоже нафиг - из принципа свой костыль нацарапаем, пусть кривой и огромный, но свой...
Это про какой JS-фрейморк речь идет в 4Кб? (Сорри, не увидел Blackbone)
Хеш-навигация мне не нужна, у меня не AJAX-приложение, да и в топике я уже писал, что хочется как раз полноценные страницы для ПС. MVVC тоже не особо нужно, мой велосипед это и так шаблонизатор, только (о ужас!) десктопный. Мне просто нужен аналог INCLUDE, и нафига мне спрашивается еще один фреймворк подключать к сайту, если JQuery вполне для этого хватит? Тем более он и так у меня почти в каждом проекте уже включён.
посетителю отображается только основной текст, а все оформление сайта будет подгружено и показано позже, может возникнуть некий визуальный дискомфорт
А это зависит от того, как вы сверстаете... т.е. блок с основным контентом можно стилями... сделать так, чтобы он не дёргался в процессе загрузки меню/шапки/футера.
бот ПС не увидит (?) ссылки в меню, футере и сайдбаре, т.к. они лежат в скрипте и добавляются на страницу позднее.
... если закроете скрипты в robots.txt
В том, что не увидит повторяющийся текст ссылок... минуса нет. Но никто не запрещает вам в HTML-коде добавлять некоторые ссылки из меню в <div id="menu"></div> (выборочная перелинковка, и на donative.ru такое есть), а скриптом в этот div вставится меню, и покажутся все сцылки (включая и те, что видны боту).
где почитать как правильно внутреннюю структуру сайта создать
А это бесполезно... оно изменится завтра же. Но оперировать ПС будут чем-то на ступеньку проще логики создателей сайтов... типа так http://blog.rajtsin.com/2008/11/27/poiskovye-klastery-i-novye-filtry-ot-yandeksa/ но конкретно этому тексту уже столько лет, что не следует считать его истиной. Это именно пример различия в логике вебмастера и программера ПС (и не путайте структуру сайта со структурой урлов).
Что касается поисковиков - они сейчас такое умеют, что Вам и не снилось. А то, о чём Вы здесь толкуете, осталось действительно в прошлом. Я бы даже сказал, за пределами 21 века.
По приведённым на первой странице ссылкам... покажите здесь конкретно что могут поисковики. Могут ли они искать дублирующийся там по сайту контент, рисуемый скриптом? Если бурундуковских примеров мало, то вот ещё совсем пустой документ для поисковиков. Может они ещё и валидность проиндексированного различают?
Им просто не надо тратить ресурсы на исполнение всего того, во что верует паства. В надёжно прозомбированной массе мозгов создателей сайтов нет почти ничего окромя Content-Type: text/html
http://erum.ru/ Content-Type: text/xml;
Сильные команды уже реализовали всё необходимое (и более того)...
Ну покажите хотя бы сайтег, на котором нельзя создать дубля... не говоря уж об избавлении ПС от частичного дублирования. Создателям CMS это всё нах не надо, они, с упорством идейных... готовы доказывать, что и ПС это не надо. Но... см название форума.
Огромное спасибо за комментарий!
... если закроете скрипты в robots.txt
Т.е. если я скрипты с инклюдами, где будет явно прописан код меню в <a href="...">, закрою в robots.txt ПС их не увидит и не нужны будут пляски с бубном, как описано здесь: http://www.unmedia.ru/sokrytie-ssylok.html ? Если это так, то это вааще круто!
В том, что не увидит повторяющийся текст ссылок... минуса нет. Но никто не запрещает вам в HTML-коде добавлять некоторые ссылки из меню в <div id="menu"></div> (выборочная перелинковка, и на donative.ru такое есть), а скриптом в этот div вставится меню, и покажутся все сцылки (включая и те, что видны боту).
Да, так и думал сделать. Те ссылки которые нужны прописываем в основном HTML коде. Всё ненужное выносим в JS.
Создателям CMS это всё нах не надо, они, с упорством идейных... готовы доказывать, что и ПС это не надо. Но... см название форума.
Угу, Ваша правда, любая CMS задает свои правила игры. Мне HTML вариант тем и нравится, что я могу сделать как МНЕ нужно, а не CMS.
Т.е. если я скрипты с инклюдами
Подразумевались клиентские скрипты (JS. А серверных ПС увидеть не может).
В плясках с бубном есть <script src="js/alljs.js"
Disallow: /js/ # Гугл умеет выполнять JS, если его не попросить в роботсе в это всё не заглядывать.
Если будете списывать ссылочную структуру с donative, то добавьте в адрес &filter=0 при просмотре списка проиндексированных Гуглём.
Подразумевались клиентские скрипты (JS. А серверных ПС увидеть не может).
Да, конечно клиентский, имел ввиду свой INCLUDE через JavaScript.
В плясках с бубном есть <script src="js/alljs.js"
Disallow: /js/ # Гугл умеет выполнять JS, если его не попросить в роботсе в это всё не заглядывать.
Это я понимаю, вот поэтому и спросил. Т.е. если я положу все закрытые ссылки в тегах A в JavaScript-файл, который потом закрою в robots.txt, то ПС их увидеть не должна и таким образом прятать ссылки через эмуляцию тега A другими тегами через JavaScript (как это описано было в статье) - это уже излишестово.
Если будете списывать ссылочную структуру с donative, то добавьте в адрес &filter=0 при просмотре списка проиндексированных Гуглём.
Спасибо, списывать не думал, но проанализировать будет интересно.