Akeli4

Рейтинг
99
Регистрация
10.12.2011
atmcom_ru:
дизайнер - рисует макет сайта - от 200 долларов до 2 тыс. долларов и больше
верстальщик - верстает сайт - от 50 долл. до 300 долл. и более
программист - пишет код и прикурчивает cms к сайту - от 600 долл. и более
еще есть:
специалист по иконографике, айдентике, фотограф, журналист(тот же копирайтер), специалист по юзабилити сайта, контент-менеджер - наполняет сайт,корректор - смотрит и проверяет текст на наличие орфографических и пунктуационных ошибок, линк-менеджер кстати еще есть)

1. Дизайнер от 20$

2. Верстальщик от 30$

3. Программист от 100 $ за написание cms

з.ы. Смотря где искать. Конечно, если вы за дизайном к Лебедеву "ходите", это ваши проблемы. А если поискать в тематических группах в соц сетях студентов (да и просто любителей), тогда сократить расходы можно в разы. Плюс, еще можно найти людей со своего города, так гораздо удобней работать, изредка встречаясь и обсуждая нюансы.

Ну а вот seo, насколько я понял - черная дыра. Можно (нужно) вкладывать и вкладывать, я вообще в seo слабоват :o

TaediumVitae:
XAnTY, Чего? %)
Akeli4, Смысл в другом. У вас на странице http://gamegam.ru/tag/kosmicheskie-onlajn-igry находятся вырезки из текста, фигурирующего на страницах отдельных записей. И это не очень хорошо.

вот я про это же и говорю. В этом и заключается моя проблема? если я уберу этот текст, то будет лучше? но опять же не я один такой, как же делают сайты с фильмами, которые тоже собирают трафик с запросов типа исторические фильмы и т.д. (у меня с играми аналогично)

---------- Добавлено 28.01.2013 в 19:35 ----------

А можно как то закрыть от яндекса не страницы, а именно текст на страницах с тэгами, описания игр, что бы они не дублились?

XAnTY:



пример робост с сайта на ДЛЕ, разделы которые не должны попасть в поиск исключены (запрещены) к сканированию роботом

User-agent: *
Disallow: /engine/go.php
Disallow: /engine/download.php
Disallow: /user/
Disallow: /newposts/
Disallow: /statistics.html
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm

Host: www.site.ru --- тут основное зеркало сайта
Sitemap: http://www.site.ru/sitemap.xml ---- тут указываем карту сайта для робота

Да но мне нужно, что бы страницы с тэгами были в поиске... как же быть(

p.s. мне кажется я все равно не до конца понимаю что вы мне хотите сказать.

Нельзя ли конкретно, что мне поможет? Что сделать надо?

XAnTY:
Объясняю:

Есть оригинал статьи, он имеет URL site*ru/article-1.html

а есть тег например "бюстгалтеры" с неверным URL на странице тегов, т.е. эта же статья только вот URL уже другой site*ru/bustgalters/article-1.html

должно быть если тыкаем на тег:

попадаем на site*ru/tags/тут список страниц с оригинальными URL без подстановки тега например:
site*ru/article-1.html
site*ru/article-2.html
site*ru/article-3.html


т.е. для яши site*ru/article-1.html и site*ru/bustgalters/article-1.html разные адреса, и если на них одинаковый контент, то это выходит что дубль...

Все равно не совсем понял... вы уж извините.

Вот например :

http://gamegam.ru/tag/kosmicheskie-onlajn-igry

http://gamegam.ru/tag/ekshen-onlajn-igry

Там у меня будет одна и таже игра ( с одиноковым описанием ), и если я уберу "/tag/" , все равно останется дубль, ведь так?

XAnTY:
Клеить дубль контента с оригиналом, теги могут выводится корректно без генерации URL на уже существующую публикацию, если происходит генерация URL то значит CMS работает с ошибкой, либо настроена с ошибкой.

Роботс лишь указывает роботу что не нужно индексировать, страницу контактов, профили пользователей и.т.д.

Можно конечно в роботс сейчас запретить индексить страницу тегов, но дубли то уже есть и их надо куда-то девать...

Ничего не понятно про урлы и генерацию. Мне нужно что бы яндекс определял страницы с тегами типа "исторические игры", Экшен игры и т.д. Там полюбому будут дубли. Это же тэги, я не понимаю, как же на других сайтах все работает.

TaediumVitae:
Мммм, простите, что клеить? Теги? К чему?
Дыры там нет, там есть пустой роботс.

Вот я тоже так думаю, никакого редиректа мне не нужно, ибо там все правильно расположено, то что это не нравится яше, закрыть в роботсе.

Да роботс пустой. А как закрыть страницы эти, можете в двух словах объяснить? Или надо мануалы там всякие изучать...?

Спасибо за вашу помощь, уже получше себя чувствую)) Не все потеряно да?

всмысле закрыть внешние ссылки? те которые ведут на мой сайт с других? и как их закрыть.. не совсем понял , извините...

XAnTY:
Сайт выполнен некачественно, контент наверняка не уникальный вот и вышло так что сайт не подходит под критерии "качественного сайта" яндекса.

Работайте над сайтом и будит вам щастье -)

про дубли кстате, TaediumVitae, верно сказал - яша таких ошибок не прощает!

А поподробней можно? Контент уникальный точно. Ни одну статью не украл .

А про дубли, это повлияло на такое решение яши, да? Неужели это так критично ( у многих так сайтов . Так уж получается

---------- Добавлено 28.01.2013 в 18:16 ----------

XAnTY:


про дубли кстате, TaediumVitae, верно сказал - яша таких ошибок не прощает!

Блин ну а как же другие сайты с метками, или надо просто закрыть их в роботсе?

Нет, только копирайтинг и рерайт, по адвего уникальность почти все 100%, где то 97, минимум 95 вроде была статья одна

а я тут в какой то теме читал, мол 300 руб за 1000 чел. Это не правильный расчет да?

Всего: 121