Low commit activity in last 3 years
A long-lived project that still receives updates
Seamless integration of resque with resque-progress and resque-lock
2005
2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021
2022
2023
2024
 Dependencies

Development

Runtime

 Project Readme

Resque::Integration

Интеграция Resque в Rails-приложения с поддержкой следующих плагинов:

Этот гем существует затем, чтобы избежать повторения чужих ошибок и сократить время, необходимое для включения resque в проект.

Установка

Добавьте в Gemfile:

gem 'resque-integration'

Добавьте в config/routes.rb:

mount Resque::Integration::Application => "/_job_", :as => "job_status"

Вместо _job_ можно прописать любой другой адрес. По этому адресу прогресс-бар будет узнавать о состоянии джоба.

Если вы до сих пор не используете sprockets, то сделайте что-то вроде этого:

$ rails generate resque:integration:install

(результат не гарантирован, т.к. не тестировалось)

Задачи

Создайте файл app/jobs/resque_job_test.rb:

class ResqueJobTest
  include Resque::Integration

  # это название очереди, в которой будет выполняться джоб
  queue :my_queue

  # с помощью unique можно указать, что задача является уникальной, и какие аргументы определяют уникальность задачи.
  # в данном случае не может быть двух одновременных задач ResqueJobTest с одинаковым первым аргументом
  # (второй аргумент может быть любым)
  unique { |id, description| [id] }

  # В отличие от обычных джобов resque, надо определять метод execute.
  #
  # Либо же вы можете определить метод perform, но первым аргументом должен быть указан meta_id (уникальный ID джоба):
  #   def self.perform(meta_id, id, description)
  #     ...
  #   end
  def self.execute(id, description)
    (1..100).each do |t|
      at(t, 100, "Processing #{id}: at #{t} of 100")
      sleep 0.5
    end
  end
end

Перезапуск задачи

Допустим, у вас есть очень длинная задача и вы не хотите, чтобы возникло переполнение очереди (или памяти). Тогда можно выполнить часть задачи, а потом заново поставить задачу в очередь.

class ResqueJobTest
  include Resque::Integration

  unique
  continuous # теперь вы можете перезапускать задачу

  def self.execute(company_id)
    products = company.products.where('updated_at < ?', 1.day.ago)

    products.limit(1000).each do |product|
      product.touch
    end

    # В очередь поставится задача с теми же аргументами, что и текущая.
    # Можно передать другие аргументы: `continue(another_argument)`
    continue if products.count > 0
  end
end

Такая задача будет выполняться по частям, не потребляя много памяти. Еще один плюс: другие задачи из очереди тоже смогут выполниться. ОПАСНО! Избегайте бесконечных циклов, т.к. это в некотором роде "рекурсия".

Конфигурация воркеров resque

Создайте файл config/resque.yml с несколькими секциями:

# конфигурация redis
# секция не обязательная, вы сами можете настроить подключение через Resque.redis = Redis.new
redis:
  host: bz-redis
  port: 6379
  namespace: blizko

resque:
  interval: 5 # частота, с которой resque берет задачи из очереди в секундах (по умолчанию 5)
  verbosity: 1 # "шумность" логера (0 - ничего не пишет, 1 - пишет о начале/конце задачи, 2 - пишет все)
  root: "/home/pc/current" # (production) абсолютный путь до корня проекта
  log_file: "/home/pc/static/pulscen/local/log/resque.log" # (production) абсолютный путь до лога
  config_file: "/home/pc/static/pulscen/local/log/resque.god" # (production) абсолютный путь до кофига god
  pids: "/home/pc/static/pulscen/local/pids" # (production) абсолютный путь до папки с пид файлами

# переменные окружения, которые надобно передавать в resque
env:
  RUBY_HEAP_MIN_SLOTS: 2500000
  RUBY_HEAP_SLOTS_INCREMENT: 1000000
  RUBY_HEAP_SLOTS_GROWTH_FACTOR: 1
  RUBY_GC_MALLOC_LIMIT: 50000000

# конфигурация воркеров (названия воркеров являются названиями очередей)
workers:
  kirby: 2 # 2 воркера в очереди kirby
  images:
    count: 8 # 8 воркеров в очереди images
    jobs_per_fork: 250 # каждый воркер обрабатывает 250 задач прежде, чем форкается заново
    minutes_per_fork: 30 # альтернатива предыдущей настройке - сколько минут должен работать воркер, прежде чем форкнуться заново
    stop_timeout: 5 # максимальное время, отпущенное воркеру для остановки/рестарта
    env: # переменные окружение, специфичные для данного воркера
      RUBY_HEAP_SLOTS_GROWTH_FACTOR: 0.5
  'companies,images': 2 # совмещённая очередь, приоритет будет у companies
  'xls,yml':
    shuffle: true # совмещённая очередь, приоритета не будет

# конфигурация failure-бэкэндов
failure:
  # конфигурация отправщика отчетов об ошибках
  notifier:
    enabled: true
    # адреса, на которые надо посылать уведомления об ошибках
    to: [teamlead@apress.ru, pm@apress.ru, programmer@apress.ru]
    # необязательные настройки
    # от какого адреса слать
    from: no-reply@blizko.ru
    # включать в письмо payload (аргументы, с которыми вызвана задача)
    include_payload: true
    # класс отправщика (должен быть наследником ActionMailer::Base, по умолчанию ResqueFailedJobMailer::Mailer
    mailer: "Blizko::ResqueMailer"
    # метод, который вызывается у отправщика (по умолчанию alert)
    mail: alert

Обратите внимание на параметр stop_timeout в секции конфигурирования воркеров. Это очень важный параметр. По умолчанию воркеру отводится всего 10 секунд на то, чтобы остановиться. Если воркер не укладывается в это время, супервизор (мы используем god) посылает воркеру сигнал KILL, который "прибьет" задачу. Если у вас есть длинные задачи (навроде импорта из XML), то для таких воркеров лучше ставить stop_timeout побольше.

Для разработки можно (и нужно) создать файл config/resque.local.yml, в котором можно переопределить любые параметры:

redis:
  host: localhost
  port: 6379

resque:
  verbosity: 2

workers:
  '*': 1

Запуск воркеров

Ручной запуск воркера (см. официальную документацию resque)

$ QUEUE=* rake resque:work

Запуск всех воркеров так, как они сконфигурированы в config/resque.yml:

$ rake resque:start

Останов всех воркеров:

$ rake resque:stop

Перезапуск воркеров:

$ rake resque:restart

Постановка задач в очередь

Для задач, в который включен модуль Resque::Integration

meta = ResqueJobTest.enqueue(id=2)
@job_id = meta.meta_id

Вот так можно показать прогресс-бар:

%div#progressbar

:javascript
  $('#progressbar').progressBar({
    url: #{job_status_path.to_json}, // адрес джоб-бэкенда (определяется в ваших маршрутах)
    pid: #{@job_id.to_json}, // job id
    interval: 1100, // частота опроса джоб-бэкэнда в миллисекундах
    text: "Initializing" // initializing text appears on progress bar when job is already queued but not started yet
  }).show();

Для обычных задач Resque

Resque.enqueue(ImageProcessingJob, id=2)

Resque Scheduler

Расписание для cron-like заданий должно храниться здесь config/resque_schedule.yml

Resque Retry

В силу несовместимостей почти всех плагинов с resque-meta (unique основан на нём) - объявить задание перезапускаемым в случае ошибки нужно ДО unique

class ResqueJobTest
  include Resque::Integration

  retrys delay: 10, limit: 2
  unique
end

Resque Multi Job Forks

workers:
  'high':
    count: 1
    jobs_per_fork: 10

Resque Ordered

Уникальный по каким-то параметрам джоб может выполняться в одно и тоже время только на одном из воркеров

class ResqueJobTest
  include Resque::Integration

  unique { |company_id, param1| [company_id] }
  ordered max_iterations: 20 # max_iterations - сколько раз запустится метод `execute` с аргументами в очереди,
                             # прежде чем джоб перепоставится

  def self.execute(ordered_meta, company_id, param1)
    heavy_lifting_work
  end
end

При необходимости, можно добиться уникальности упорядоченных джобов, указав параметры в опции unique

class UniqueOrderedJob
  include Resque::Integration

  unique { |company_id, param1| [company_id] }
  ordered max_iterations: 10, unique: ->(_company_id, param1) { [param1] }
  ...
end

Contributing

  1. Fork it ( https://github.com/abak-press/resque-integration/fork )
  2. Create your feature branch (git checkout -b my-new-feature)
  3. Commit your changes (git commit -am 'Add some feature')
  4. Push to the branch (git push origin my-new-feature)
  5. Create a new Pull Request