You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Проблема: у slack'а есть отдельный лимит на суммарный размер загруженных файлов, и они не удаляются автоматически.
Вроде бы это не мешает заливать новые, но показывается ошибка, и лучше всё же чистить. Но терять файлы тоже не хочется.
Решение:
написать бекапилку файлов на s3 (только id -> content, без метаданных)
удалять забекапленные файлы из слака
извлечь из экспортированного архива файловые сообщения ("subtype": "file_share") для удалённых файлов в отдельный json (они потеряются при следующем экспорте) в отдельный файл file_shares.json (или папку с отдельными файлами по каналам, скорее)
бекапить file_shares куда-нибудь тоже, потому что его невозможно будет восстановить, если что
показывать файлы с s3 на фронтенде через прокси с проверкой прав (при бекапе сохраняются файлы из всех каналов, в том числе приватные)
мержить при индексации file_shares в общий архив, подменять урлы на архивные
Проблема: у slack'а есть отдельный лимит на суммарный размер загруженных файлов, и они не удаляются автоматически.
Вроде бы это не мешает заливать новые, но показывается ошибка, и лучше всё же чистить. Но терять файлы тоже не хочется.
Решение:
"subtype": "file_share"
) для удалённых файлов в отдельный json (они потеряются при следующем экспорте) в отдельный файлfile_shares.json
(или папку с отдельными файлами по каналам, скорее)Пример для тестирования: http://slack.lesswrong.ru/archive/prj_translations/2016-05-21
The text was updated successfully, but these errors were encountered: