9

我正在使用 Amazon S3 存储 Django 项目的静态文件,但collectstatic没有找到更新的文件 - 只有新文件。

我多年来一直在寻找答案,我的猜测是我的某些配置不正确。我关注了这篇博文以帮助完成所有设置。

我也遇到了这个似乎与我的问题相同的问题,但我已经尝试了所有解决方案。

我什至尝试使用这个问题中建议的插件

以下是一些可能有用的信息:

设置.py

...
STATICFILES_FINDERS = (
    'django.contrib.staticfiles.finders.FileSystemFinder',
    'django.contrib.staticfiles.finders.AppDirectoriesFinder',
    'django.contrib.staticfiles.finders.DefaultStorageFinder',
)
...
# S3 Settings
AWS_STORAGE_BUCKET_NAME = os.environ['AWS_STORAGE_BUCKET_NAME']
STATICFILES_STORAGE = 'storages.backends.s3boto.S3BotoStorage'
S3_URL = 'http://%s.s3.amazonaws.com/' % AWS_STORAGE_BUCKET_NAME
STATIC_URL = S3_URL
AWS_PRELOAD_METADATA = False

要求.txt

...
Django==1.5.1
boto==2.10.0
django-storages==1.1.8
python-dateutil==2.1

编辑1:

如果这个问题对我自己的情况来说太独特而对广大观众没有任何帮助,我深表歉意。尽管如此 - 这一直阻碍我的工作效率很长一段时间,我浪费了很多时间寻找解决方案,所以我开始赏金奖励任何可以帮助解决这个问题的人。

编辑2:

我刚刚在某个地方遇到了类似的问题。我所在的时区与我的 AWS 存储桶所在的时区不同。如果默认情况下collectstatic使用时间戳,这会干扰该过程吗?

谢谢

4

5 回答 5

8

我想我解决了这个问题。和你一样,我在这个问题上花了很多时间。我也在您在 bitbucket 上找到的错误报告中。这是我刚刚完成的。

我有

django-storages==1.1.8
Collectfast==0.1.11

这根本不起作用。一次删除所有内容也不起作用。之后,它不能接受修改并拒绝更新任何内容。

问题在于我们的时区。S3 会说它的文件最后一次修改晚于我们要上传的文件。django collectstatic 根本不会尝试复制新的。它将调用文件“未修改”。例如,这是我在修复之前看到的:

Collected static files in 0:00:45.292022.
Skipped 407 already synced files.
0 static files copied, 1 unmodified.

我的解决方案是“修改时间!”。除了我们在这里解决的时区问题,如果我犯了错误需要回滚怎么办?它将拒绝部署旧的静态文件并使我的网站损坏。

这是我对 Collectfast https://github.com/FundedByMe/collectfast/pull/11的拉取请求。我仍然留下了一个标志,所以如果你真的想检查修改时间,你仍然可以这样做。在合并之前,只需在https://github.com/sunshineo/collectfast使用我的代码

你有一个美好的一天!

--Gordon PS:为此熬夜到凌晨 4 点 40 分。我的一天肯定被毁了。

于 2013-10-02T11:40:45.647 回答
6

经过几个小时的挖掘,我发现了这个错误报告

我更改了要求以恢复到以前版本的 Django 存储。

django-storages==1.1.5
于 2013-08-30T06:21:39.770 回答
3

您可能需要考虑使用 antonagestam 在 Github 上编写的这个插件: https ://github.com/FundedByMe/collectfast

它比较文件的校验和,这是确定文件何时更改的可靠方法。这是另一个 stackoverflow 问题的公认答案:更快地替代 manage.py collectstatic (w/s3boto storage backend) to sync static files to s3?

于 2013-08-29T23:54:31.073 回答
2

这里有一些很好的答案,但我今天花了一些时间在这上面,所以我想我会再贡献一个,以防将来对某人有所帮助。根据在其他线程中找到的建议,我确认,对我来说,这确实是由时区差异引起的。我的 django 时间不正确,但设置为 EST,S3 设置为 GMT。在测试中,我恢复到 django-storages 1.1.5,它似乎确实让 collectstatic 工作。部分由于个人喜好,我不愿意 a) 回滚 django-storages 的三个版本并丢失任何潜在的错误修复或 b) 更改我的项目组件的时区,因为这基本上归结为一个便利功能(尽管很重要一)。

我编写了一个简短的脚本来完成与 collectstatic 相同的工作,而无需进行上述更改。它需要对您的应用程序进行一些修改,但如果将其放置在应用程序级别并且将“static_dirs”替换为项目应用程序的名称,则它应该适用于标准情况。它通过终端运行,带有 'python whatever_you_call_it.py -e environment_name(将其设置为您的 aws 存储桶)。

import sys, os, subprocess
import boto3
import botocore
from boto3.session import Session
import argparse
import os.path, time
from datetime import datetime, timedelta
import pytz

utc = pytz.UTC
DEV_BUCKET_NAME = 'dev-homfield-media-root'
PROD_BUCKET_NAME = 'homfield-media-root'
static_dirs = ['accounts', 'messaging', 'payments', 'search', 'sitewide']

def main():
    try: 
        parser = argparse.ArgumentParser(description='Homfield Collectstatic. Our version of collectstatic to fix django-storages bug.\n')
        parser.add_argument('-e', '--environment', type=str, required=True, help='Name of environment (dev/prod)')
        args = parser.parse_args()
        vargs = vars(args)
        if vargs['environment'] == 'dev':
            selected_bucket = DEV_BUCKET_NAME
            print "\nAre you sure? You're about to push to the DEV bucket. (Y/n)"
        elif vargs['environment'] == 'prod':
            selected_bucket = PROD_BUCKET_NAME
            print "Are you sure? You're about to push to the PROD bucket. (Y/n)"
        else:
            raise ValueError

        acceptable = ['Y', 'y', 'N', 'n']
        confirmation = raw_input().strip()
        while confirmation not in acceptable:
            print "That's an invalid response. (Y/n)"
            confirmation = raw_input().strip()

        if confirmation == 'Y' or confirmation == 'y':
            run(selected_bucket)
        else:
            print "Collectstatic aborted."
    except Exception as e:
        print type(e)
        print "An error occured. S3 staticfiles may not have been updated."


def run(bucket_name):

    #open session with S3
    session = Session(aws_access_key_id='{aws_access_key_id}',
        aws_secret_access_key='{aws_secret_access_key}',
        region_name='us-east-1')
    s3 = session.resource('s3')
    bucket = s3.Bucket(bucket_name)

    # loop through static directories
    for directory in static_dirs:
        rootDir = './' + directory + "/static"
        print('Checking directory: %s' % rootDir)

        #loop through subdirectories
        for dirName, subdirList, fileList in os.walk(rootDir):
            #loop through all files in subdirectory
            for fname in fileList:
                try:
                    if fname == '.DS_Store':
                        continue

                    # find and qualify file last modified time
                    full_path = dirName + "/" + fname
                    last_mod_string = time.ctime(os.path.getmtime(full_path))
                    file_last_mod = datetime.strptime(last_mod_string, "%a %b %d %H:%M:%S %Y") + timedelta(hours=5)
                    file_last_mod = utc.localize(file_last_mod)

                    # truncate path for S3 loop and find object, delete and update if it has been updates
                    s3_path = full_path[full_path.find('static'):]
                    found = False
                    for key in bucket.objects.all():
                        if key.key == s3_path:
                            found = True 
                            last_mode_date = key.last_modified
                            if last_mode_date < file_last_mod:
                                key.delete()
                                s3.Object(bucket_name, s3_path).put(Body=open(full_path, 'r'), ContentType=get_mime_type(full_path))
                                print "\tUpdated : " + full_path
                    if not found:
                        # if file not found in S3 it is new, send it up
                        print "\tFound a new file. Uploading : " + full_path
                        s3.Object(bucket_name, s3_path).put(Body=open(full_path, 'r'), ContentType=get_mime_type(full_path))
                except:
                    print "ALERT: Big time problems with: " + full_path + ". I'm bowin' out dawg, this shitz on u." 


def get_mime_type(full_path):
    try:
        last_index = full_path.rfind('.')
        if last_index < 0:
            return 'application/octet-stream'
        extension = full_path[last_index:]
        return {
            '.js' : 'application/javascript',
            '.css' : 'text/css',
            '.txt' : 'text/plain',
            '.png' : 'image/png',
            '.jpg' : 'image/jpeg',
            '.jpeg' : 'image/jpeg',
            '.eot' : 'application/vnd.ms-fontobject',
            '.svg' : 'image/svg+xml',
            '.ttf' : 'application/octet-stream',
            '.woff' : 'application/x-font-woff',
            '.woff2' : 'application/octet-stream'
        }[extension]
    except:
        'ALERT: Couldn\'t match mime type for '+ full_path + '. Sending to S3 as application/octet-stream.'

if __name__ == '__main__':
    main()
于 2016-01-30T06:22:52.903 回答
0

I had a similar problem pushing new files to a S3 bucket (previously working well), but is not problem about django or python, on my end I fixed the issue when I deleted my local repository and cloned it again.

于 2017-03-15T06:54:48.190 回答