Сочиняется собственная кодировка. Под эту кодировку делается шрифт. После чего при попытке скачать с сайта текст получается что-то невообразимое. А при просмотре в браузере подгружается "правильный" шрифт, который этот ужас показывает как нормальный текст.
Причем, можно сделать, чтобы работал Ctrl-C. Нужно на этот шорткак повесить обработчик, который на лету будет перекодировать выделеный текст.
Причем перекодировку utf8 -> secret_encoding можно делать на лету через input filter.
Возможно ли сделать доступ на просмотр статьи (материала) с использованием CAPTCHA?
Если материал не архи полезный, то сомневаюсь, что кто то будет вводит капчу на каждой странице. Изврат.
100 % способов защиты нет, на крайний случай материал с сайта будут тащить ручками. Или наймут кликальщиков, которые за 10 центов будут парсить вручную 1000 статей))
Сочиняется собственная кодировка. Под эту кодировку делается шрифт. После чего при попытке скачать с сайта текст получается что-то невообразимое. А при просмотре в браузере подгружается "правильный" шрифт, который этот ужас показывает как нормальный текст.
есть ваирант все перевести в картинки и потерять в поиске - он не будет это говно индексировать.
все остальные варианты приведут в конечном итоге к извлечению текста.
А вот если контент будет интересный - то забить болт. еще вариант - внутрь статей втыкать копирайты и ссылки на себя любимого перекрыв их видимость через CSS. новостные портлы врое так делают
есть ваирант все перевести в картинки и потерять в поиске - он не будет это говно индексировать.
все остальные варианты приведут в конечном итоге к извлечению текста.
А вот если контент будет интересный - то забить болт. еще вариант - внутрь статей втыкать копирайты и ссылки на себя любимого перекрыв их видимость через CSS. новостные портлы врое так делают
Клоака. Мониторить труЪ списки IP кроулеров ПС и выдавать им самый минимальный набор данных. даже тупо без оформления. HTML + Минимальный CSS. Главное линковку сохранить и всё остальное. Но мониторить и обнвлять списки придётся регулярно + есть шанс на какогонить яшиного джеймса бонда нарваться и поиметь проблем.
Ну а то что там у не входящих в список происходит в принципе пофигу -- можно сделать хитрую логику какую-то.
Думаю, если ресурс стоящий и ни никаких обманных манёвров, то и возможные проблемы можно будет решить простой беседой с сапортом, как вариант.
Так что вопрос в том как эти вещи растащить. Можно конечно не париться, но в идеале запара стоит свеч.
В частности можно применять свои какие то методики оптимизации и не палить их широкой публике, если они есть конечно. как-то так
с нашим то яшей? есть такой шанец что потом этим же болтом будет бить по лбу. можно конечно и на него забить я бы с удовольствием, если честно. у них кстати проблемы в последнее время
Решил проблему с помощью гугла, документации по PHP и javascript
Для предпросмотра сделал отображение картинкой (php imagettftext),
для просмотра использовал извращенно-заполненный массив (PHP) , который разворачиваю на стороне клиента javascriptОМ
Для предпросмотра сделал отображение картинкой (php imagettftext),
для просмотра использовал извращенно-заполненный массив (PHP) , который разворачиваю на стороне клиента javascriptОМ
да это старый способ антикопипаста.
ты в индексации проиграешь. гугл не будет видеть текста в теле страниц. ЖОПА одним словом.
а спиздить контент у тебя будет раз плюнуть слегка дополнив парсер Ж)
Комментарии
Сделай статьи только авторизованным, половина школоло уже отвалиццо, так как не могут пройти авторизацию в друпале из-за токенов
меня это не устраивает,
я не хочу ограничивать доступ к контенту
смогут.
никак.
Я видел тех кто не мог.
Отображать контент в виде картинки
не подходит :(, отпугнет народ, копипаст необходим
а у меня одно время на винте лежал "случайно" подобранный парсер
сеошники забыли перекрыть доступ
там есть авторизация в друпал
как вариант, который может затруднить парсинг:
возможно ли сделать вывод тела (body) материала с помощью AJAX?
т.е. запугать парсер javascriptОМ
Нереально ))))) Если захотят пропылесосить - пропылесосят и в считанные минуты )))
Предлагаю решение.
Сочиняется собственная кодировка. Под эту кодировку делается шрифт. После чего при попытке скачать с сайта текст получается что-то невообразимое. А при просмотре в браузере подгружается "правильный" шрифт, который этот ужас показывает как нормальный текст.
Причем, можно сделать, чтобы работал Ctrl-C. Нужно на этот шорткак повесить обработчик, который на лету будет перекодировать выделеный текст.
Причем перекодировку utf8 -> secret_encoding можно делать на лету через input filter.
Если материал не архи полезный, то сомневаюсь, что кто то будет вводит капчу на каждой странице. Изврат.
100 % способов защиты нет, на крайний случай материал с сайта будут тащить ручками. Или наймут кликальщиков, которые за 10 центов будут парсить вручную 1000 статей))
Закодировать текст, раскодировать жабаскриптом. Отсеет 90% школоты
Жесть
я не ищу 100% защиты!
я хочу CAPTCHA на просмотр или хотя бы отображение содержимого с помощью AJAX
Примечание: я не программист, т.е. хотелось бы получить готовые решения, а не "постановку задачи" неразрешимую для меня
без шансов. даже если и есть такой модуль, то уверен, что он потребует шаманства с настройкой и т.п..
Найти программиста и заплатить за решение - разрешимая для вас задача ?))
Готового нет, т.к. задача весьма специфична
В статьи ставить фоток побольше и вотермарки на фотки. Даже если сольют куда-то сайту польза будет.
есть ваирант все перевести в картинки и потерять в поиске - он не будет это говно индексировать.
все остальные варианты приведут в конечном итоге к извлечению текста.
А вот если контент будет интересный - то забить болт. еще вариант - внутрь статей втыкать копирайты и ссылки на себя любимого перекрыв их видимость через CSS. новостные портлы врое так делают
это потеря в индексации
Клоака. Мониторить труЪ списки IP кроулеров ПС и выдавать им самый минимальный набор данных. даже тупо без оформления. HTML + Минимальный CSS. Главное линковку сохранить и всё остальное. Но мониторить и обнвлять списки придётся регулярно + есть шанс на какогонить яшиного джеймса бонда нарваться и поиметь проблем.
Ну а то что там у не входящих в список происходит в принципе пофигу -- можно сделать хитрую логику какую-то.
Думаю, если ресурс стоящий и ни никаких обманных манёвров, то и возможные проблемы можно будет решить простой беседой с сапортом, как вариант.
Так что вопрос в том как эти вещи растащить. Можно конечно не париться, но в идеале запара стоит свеч.
В частности можно применять свои какие то методики оптимизации и не палить их широкой публике, если они есть конечно. как-то так
то можно просто забить болт.
с нашим то яшей? есть такой шанец что потом этим же болтом будет бить по лбу. можно конечно и на него забить я бы с удовольствием, если честно. у них кстати проблемы в последнее время
Решил проблему с помощью гугла, документации по PHP и javascript
Для предпросмотра сделал отображение картинкой (php imagettftext),
для просмотра использовал извращенно-заполненный массив (PHP) , который разворачиваю на стороне клиента javascriptОМ
да это старый способ антикопипаста.
ты в индексации проиграешь. гугл не будет видеть текста в теле страниц. ЖОПА одним словом.
а спиздить контент у тебя будет раз плюнуть слегка дополнив парсер Ж)
Реквестирую инферну в тред
Что там за мега сайт такой?