Skip to content

Порно

img.png

Порно научило нас стандартам ебли, это факт
Порно помогает нам дрочить, и ещё как
Порно заставляет нас стричь муде и соблюдать гигиену
Мир без порно, огненная геенна

Как все связано?

Откуда инфа:

  • Wiki - много инфы есть просто в вике, напр. по MindGeek
  • Justia Trademarks - инфа о компаниях и ее дочках - те же MindGeek
  • Дочерние сайты, представленные на основном сайте

Где смотреть и качать?

ВК

  • Как качать: поставить расширение VK Flex
  • Как искать: имя любой актрисы (или просто любое женское имя) + фильтры "Без ограничений", "Высокое качество", "По длительности > Длинные"

Pornolab

  • Важно раздавать видосы, иначе качать не сможешь
  • Большинство раздач оформлено => по ним можно найти оригинальную сцену => заскрепить ее для коллекции

Зачем качать?

  • Видос могут удалить/заблочить
  • Создавать коллекцию - в этом поможет Stash

Stash

stash

  • https://stashapp.cc/https://github.com/stashapp/stash
  • Очень вдохновила прога
  • Много вкусных фич:
    • Мета информация о видосах: ссылка, рейтинг, счетчик дрочки
    • Возможность ставить таймкоды
    • Генерация видео-превью
    • Теги, актрисы, студии
    • Парс актрис/видосов из сторонних источников

!!! note ""

По сути ты создаешь **свой порно-сайт**, где будет только то, что ты любишь, будет полная информация об актрисах,
будут теги, будут превьюшки, любимые моменты, и все бесплатно, и только на твоей машинке

Установка

  • Просто заходишь на страницу с релизами, качаешь exe-шник
  • Запускаешь его, и всякие настроечки заполняешь - и все, оно работает
  • Обновление - аналогично: качаем exe и перезаписываем

Как парсить

  • Качаем скреперы: склонить репо и папку scrapers закинуть в директорию со Stash
    • Список скреперов
    • В списке выше описапы с каких сайтов можно спарсить инфу => на этих же сайтах надо искать сцены для парса
  • Далее вводим ссылку на видос, и жмем кнопку скрепа

О скреперах

  • Настройки скреперов: Settings > Metadata Providers
  • Запускать скреперы лучше под VPN
  • Для Python-скреперов, прописываем путь к питону + ставим requests, bs4, lxml
  • Если при парсе получаем 403, стоит попробовать прописать UserAgent в Scraper User Agent
    • user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36 Edg/107.0.1418.42
  • Если у скрепера тип CDP, то выставить путь к хрому чето не помагает(((