anton831

anton831
Рейтинг
71
Регистрация
25.05.2011
burunduk:
это кстати происходит регулярно с гугланалитиксом :)

варианты обхода этих ситуаций есть и они закладываются в функционале при разработке сайта

Например?:)

Хотя бы в общих чертах.

Есственно без варианта "не подключать":)

Как наглядный пример хотел бы спросить

http://metallicheckiy-portal.ru/servis/calcn.php?stil=2&pmet=st&pprok=protru

Как мне сдернуть вот это, не подключая через iframe, с html все вобщем то понятно, JS тоже можно выкачать. Но вот есть проблема, некотрые свои части - этот калькулятор подкачивает через AJAX, каким образом мне вытащить из этих фаилов код php?

Мне просто очень надо этот калькулятор, писать сам я его очень не хочу, к тому же не очень силен в JS, но и вставлять в том виде, котором его предлагают - не могу, так как он абсолютно не вписывается в дизайн сайта.... Ну и то о чем вы говорили - тоже конечно важный аргумент.:)

Вобщем надо как то его забрать оттуда со всеми потрахами, поможете?:)

burunduk:
яндекс, гугл, ли, рамблер, твитер, однокласники .....
тупят регулярно и ВАШ сайт из-за их тупки может быть недоступным, страница не догружается - висят скрипты :)
вот вам и повышенное количество отказов и увеличенное время загрузки страницы :)

а еще пользователь может добавить изображение с другого сайта :)

И какое решение этой проблемы вы видите?

Тут уже речь идет не о ссылках на сайт, а о подключениях с этих ресурсов разлиных изображений, скриптов и т.д. По моему единсвенный вариант избежать этого - не подключать ничего ниоткуда, а все скрипты подключать со своего локала? Или есть еще какие то решения?

С таким же успехом может лечь Гугловский сервак и подключенные с него библиотеки jquery например, станут недоступны, вследствии чего, перестанет работать все что их использует, а это иногда достаточно критично.

Дак какой тут выход? Ложить на локал и подключать оттуда?

На самом деле вероятность того, что ляжет Гугловский сервак, намного ниже чем то, что ляжет Ваш сервак, соответственно считать этот момент КРИТИЧНЫМ, для продвижения сайта - не стоит, разве не так?

burunduk:
это именно функционал :(

по разному от 10 до 1000000 это страниц, а документов может быть в несколько раз больше (пдф, архивы, графика ......) :)


а при недоступности внешней ссылки, например счётчика (когда не так давно когда лежал яндекс, полрунета толком не работало), а теперь посчитайте количество внешних ресурсов к которым обращается сайт (счётчики, социалки, контекст ....) как минимум раз в месяц с одним из них явные проблемы :)

Ну не знаю, я когда сайт делаю, у меня любую ссылку можно удалить в БД, ну на крайняк в index.html.

Тут уже от подхода разработчика к этому вопросу все зависит.

Что касается внешних ссылок, в первую очередь не стоит ставить ссылки на сайты, которые через месяц могут накрыться.

Ну а насчет счетчиков - это не битая ссылка, хотя бы потому, что если ресурс временно недоступен, вряд ли он будет ставить 404 ошибку на время тех работ.

Ну а если и поставит, то это временное явление, максимум на пару часов в месяц, не думаю, что из за этого нужно на эти пару часов ссылки снимать, а потом назад их ставить.

С таким же успехом и ваш хост может лечь на пару часов, от этого никто не застрахован и вряд ли эта серьезная проблема для СЕО продвижения ресурса.

1000000 страниц и еще *2 различных доков - это уже просто монстр какой то!

Его вообще на SQL ставить стремно. Любой скрипт обрабатывающий эту таблицу, на таком сайте будет тупить.

Если взять обычный сайт, до 5000страниц, то вполне нормально его можно почистить таким скриптом.

classics:
скорее всего не сможете.

Я знаю что не смогу - это был сарказм:)

classics:

Если заказывать с нуля, то к кому угодно, кто предъявит портфолио выполненных работ, соответствующее уровню сложности проекта.

Если у кого то в портфилио лежат проекты подобные Авито, то этот кто то, за 1000у.е, даже ТЗ читать не будет.

qvaro:
а сами не хотите? возьмите бесплатные движки, подберите плагины, установите права доступа и все))

Ну да, доработаете их "немного", че там, делов то😂

sherbakovs:
не прошу делать авито. у них миллионы посещений и вся страна. у меня планируются несколько тысяч посещений в день.

если брать готовый скрипт и немного его доработать, что будет стоить 10 тясяч долларов?

sherbakovs добавил 04.10.2011 в 15:03


К сожалению не очень силен в ТЗ, до этого мне в ветке писали, что можно сесть и набросать на листке бумаги. сел, набросал, выложил.

Спасибо за замечание. будет рекомендации по ТЗ?

Ну функционал то вы просите как у Авито, при чем тут посещаемость?

По вашему списку, там достаточно приличный функционал должен быть, вобщем то вполне сравнимый с Авитовским.

ЗЫ: Готовый скрипт, иногда труднее дорабатывать, чем писать свой с нуля!

Так как чужой код гораздо труднее для восприятия.

А дорабатывать вам там придеться оочень много чего, судя по тем требованиям которые вы выложили.

Ваша цена за подобные работы, просто смешна, вам об этом уже несколько человек сказало!

Я слышал, что Авито в буджет, только на раскрутку в дирректе, вкладывает несколько миллионов в месяц.

Сомневаюсь, чтоб его разработка стоила 1000$.

Вы думаете, я смогу сделать сайт с функционалом как ВКонтакт, за 1000$?

Я лично сомневаюсь. И эти сомнения вполне обоснованны, поверьте:)

Попробуйте помножить свой буджет хотя бы на 10, а уж потом заморачивайтесь с поиском спецов и написанием ТЗ.

PS: Сайт как сайт, только непонятно прочему русский текст, в перемешку с английским.

Следы шаблона? Надо почистить))

anton831 добавил 04.10.2011 в 13:58

sirko_el:
С удовольствием почитаю здоровую критику!

А вы уверенны, что она тут всегда "здоровая"?😂

Ну можно составить регулярное выражение выделяя, так сказать "корень" из всех URL в БД и 'корень' из URL в $_SERVER..., допустим от слэша до точки сравнив полученные переменные и перенаправив пользователя на нужную страницу.

Можно даже при записи страницы в БД делать эту процедуру, записывая "корень" в отдельный столбец таблицы, далее просто сравнивая массив из этого столбца с "корнем" переменной $_SERVER[]

То есть варианты даже при таком раскладе есть, причем они не так уж сложны в исполнении.

Например, я как начинающий и то вполне мог бы написать все вышеперичисленное и не так уж и за долго и дорого!

То что с этой задачей в 2 счета справиться опытный спец, я уже и не говорю.:)

anton831 добавил 04.10.2011 в 14:13

burunduk:
не вариант при большом количестве страниц, будут тормоза
тем более битая ссылка может находиться в css, js, может быть url графики или вообще вести на внешний ресурс :)

Ну из БД можно и JS почистить.

Другой вопрос если вы расставляете ссылки в различных "неожиданных" так сказать местах, типо CSS или каком нить фаиле, подключаюцимся в каком нить классе:)

Тогда конечно да - беда:)

Я честно считаю, что если уж вы делаете сайт с БД, то и контент (включая ссылки) весь нужно заключать в БД, просто даже из соображений здравого смысла и поиска этого самого контента в дальнейшем.

Это уже вопрос к общей организации работ, а не к функционалу.

PS: Почему будет тормозить?

Сколько у вас может быть страниц на сайте? Вы же этот скрипт запускать будете не при каждом заходе на сайт, а только при удалении страницы.

Ща, придут "знатоки", оценят😂

Много нового о своем сайте узнаете😂

А может быть заодно и о себе😂 Тут обычаи походу такие, поливать "калом" плоды чужих работ)))

Всего: 422