- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну ерунда же написана (кроме скрина и помойки).
Не, к сожалению не ерунда. Пруфлинк: /ru/forum/711151
---------- Добавлено 26.04.2013 в 21:21 ----------
(возможно, в новой теме.. тут вроде как оффтоп)?
Да не офтоп, обсуждаем способы защиты сколько влезет.
Не, к сожалению не ерунда.
Ты не понял. Я двумя руками против подбора тем на помойках. Я говорю о формулировках под п 1 и 2. Бесплатные темы (весьма качественные) есть. И их много. Но только на офсайтах (не только в репо ВП, а и производителей. Правда, не у всех всё хорошо ;) )
Если бы делал роутинг, то делал бы безовсякой многомерности, тупо
Далее
Про ГЕТ-данные и прочее молчу, просто идея:)
Ну на самом деле там говориться про older client,
И про прокси (чит: хопы). И именно от них зависит как что пройдёт.
Я помню, как лет 6-8 назад пров, всеукраинского масштаба накрутил то ли в МТУ то ли ещё где-то (не помню) в итоге часть сайтов (страниц?) были не доступны. Наши админы недели две бились с ними, пока они пофисили.
Кроме того - видел же скрин я показывал? И это всё в процессе работы и без кириллицы.
Так что, всё, что из области "допустимо, но не обязательно\не так" - тут могут быть разные нюансы. Особенно если по пути встретятся параноидальные админы :)
Если вернуться к плагину, то вроде, новая версия работает. Еще бы потестировать как-то..
ivan-lev, спрашивайте что интересует. Фреймворки я не использую, поэтому, не знаю как назвать. Я называю это модулем типизации и валидации входящих параметров. Он, во-первых, проверяет корректность полученных данных, во-вторых, устанавливает возможные варианты по умолчанию (например, если страница может получить параметры day, month, year, но ни один из параметров не пришел, в объект $_GET будут установлены сегодняшний день, месяц и год; может получить номер страницы, но номер страницы не пришел со стороны пользователя - будет установлена 1 страница. С одной стороны, и без этого в нужном модуле можно установить значения по-умолчанию. Но если здесь они устанавливаются из карты один раз, то в ином случае, нам придется каждый раз проверять на isset($_GET['page']) or $_GET['page'] = 1. Также, модуль подготавливает HTML (для POST роутинга), экранирует SQL, сводит к нужному типу переменные (например, 1.1 в объект GET будет установлен как float, а не string). Это позволяет в одном месте определить переменные (в случае нарушений со стороны пользователя вывести соответствующую ошибку) и пользоваться объектом GET как обычным локальным объектом без последующих проверок на isset, min-max, PREPARE и так далее, вести учет удаленных страниц, выводить подсказки об ошибках в URL (с помощью словаря возможных опечаток), вводить локализацию URI, управлять структурой URI (больше не нужно писать page перед вводом страницы, и так далее). Также, в случае определенных ошибок со стороны клиента (попал на страницу 404 (не 410!), ввел неправильный URI), модуль устанавливает индекс хакинга, который при преодолевании значения 50%, переводит пользователя на статическую версию сайта + принудительно замедляет работу скрипта. Мой вариант может работать совместно с AJAX, благодаря использованию JSON. Я могу запретить на уровне валидации URI, переход по определенному адресу для определенных групп. Например, чтобы запретить видеть файлы robots.txt, sitemap.xml обычным пользователям, мне стоит добавить GROUP: "robots". Я это не использую, но вы можете догадываться об удобности использования этого модуля. Не нужно копаться в коде, перечитывать код, достаточно подправить один файл, и вся структура сайта будет изменена. :)
Вообще, ничего подобного я не встречал. Видел варианты роутеров в виде классов, но это далеко не то. В них либо не было типизации, либо какой-то замудренный вызов.
Учим матчасть. Как вариант - осиливаем 21 пост топика.
Что не так? Не вылетят из индекса? Или не попадут туда?
Лень - движетель вирусов. Вот возникла забавная мысль - сделать мини-плагин.
Встраивается в админку небольшой скрипт, с окошечком. Вводишь туда название плагина и он просто ищет его на сайте... через гугль или яндекс.. тут, к примеру: http://www.wordpressexploit.com/
А после этого уже думаешь, есть ли смысл его устанавливать.
Кто что скажет?
Что не так?
Только то, что получение урлов, длиной выше 255 байт является негарантированным. И пофик кто поучатель - ЮА конечного юзера или бот ПСа.
Кто что скажет?
Думаю норм идея
Только то, что получение урлов, длиной выше 255 байт является негарантированным. И пофик кто поучатель - ЮА конечного юзера или бот ПСа.
Ну и что, если урлы УЖЕ в индексе пс, то использование данного плагина их оттуда выкинет, правильно?
Вы мне напомнили прапорщика, который выучил устав наизусть и требовал от всех его неукоснительного выполнения. Но мы то знаем, что это не аксиома)