我需要锁定一个文件以便用 Python 编写。它将同时从多个 Python 进程访问。我在网上找到了一些解决方案,但大多数都因我的目的而失败,因为它们通常仅基于 Unix 或基于 Windows。
14 回答
好的,所以我最终使用了我在此处编写的代码,在我的网站链接已失效,请在 archive.org 上查看(也可在 GitHub 上找到)。我可以通过以下方式使用它:
from filelock import FileLock
with FileLock("myfile.txt"):
# work with the file as it is now locked
print("Lock acquired.")
这里有一个跨平台的文件锁定模块:Portalocker
尽管正如 Kevin 所说,一次从多个进程写入文件是您希望尽可能避免的事情。
如果您可以将问题硬塞到数据库中,则可以使用 SQLite。它支持并发访问并处理自己的锁定。
其他解决方案引用了许多外部代码库。如果您更愿意自己动手,这里有一些跨平台解决方案的代码,该解决方案在 Linux / DOS 系统上使用相应的文件锁定工具。
try:
# Posix based file locking (Linux, Ubuntu, MacOS, etc.)
# Only allows locking on writable files, might cause
# strange results for reading.
import fcntl, os
def lock_file(f):
if f.writable(): fcntl.lockf(f, fcntl.LOCK_EX)
def unlock_file(f):
if f.writable(): fcntl.lockf(f, fcntl.LOCK_UN)
except ModuleNotFoundError:
# Windows file locking
import msvcrt, os
def file_size(f):
return os.path.getsize( os.path.realpath(f.name) )
def lock_file(f):
msvcrt.locking(f.fileno(), msvcrt.LK_RLCK, file_size(f))
def unlock_file(f):
msvcrt.locking(f.fileno(), msvcrt.LK_UNLCK, file_size(f))
# Class for ensuring that all file operations are atomic, treat
# initialization like a standard call to 'open' that happens to be atomic.
# This file opener *must* be used in a "with" block.
class AtomicOpen:
# Open the file with arguments provided by user. Then acquire
# a lock on that file object (WARNING: Advisory locking).
def __init__(self, path, *args, **kwargs):
# Open the file and acquire a lock on the file before operating
self.file = open(path,*args, **kwargs)
# Lock the opened file
lock_file(self.file)
# Return the opened file object (knowing a lock has been obtained).
def __enter__(self, *args, **kwargs): return self.file
# Unlock the file and close the file object.
def __exit__(self, exc_type=None, exc_value=None, traceback=None):
# Flush to make sure all buffered contents are written to file.
self.file.flush()
os.fsync(self.file.fileno())
# Release the lock on the file.
unlock_file(self.file)
self.file.close()
# Handle exceptions that may have come up during execution, by
# default any exceptions are raised to the user.
if (exc_type != None): return False
else: return True
现在,AtomicOpen
可以在with
通常使用open
语句的块中使用。
警告:
- 如果在调用exit之前在 Windows 上运行和 Python 崩溃,我不确定锁定行为会是什么。
- 这里提供的锁定是建议性的,不是绝对的。所有潜在的竞争进程都必须使用“AtomicOpen”类。
- 截至(2020 年 11 月 9 日),此代码仅锁定Posix 系统上的可写文件。在发布之后和此日期之前的某个时间点,使用
fcntl.lock
只读文件是非法的。
我一直在寻找几种解决方案来做到这一点,我的选择是 oslo.concurrency
它功能强大且文档相对完善。它基于紧固件。
其他解决方案:
- Portalocker:需要 pywin32,这是一个 exe 安装,所以不能通过 pip
- 紧固件:记录不充分
- 锁定文件:已弃用
- flufl.lock:用于 POSIX 系统的 NFS 安全文件锁定。
- simpleflock : 最后更新 2013-07
- zc.lockfile:最后一次更新 2016-06(截至 2017-03)
- lock_file : 2007-10 的最后更新
我更喜欢lockfile — 独立于平台的文件锁定
锁定是特定于平台和设备的,但通常,您有几个选项:
- 使用flock(),或等效的(如果你的操作系统支持的话)。这是建议锁定,除非您检查锁定,否则它会被忽略。
- 使用 lock-copy-move-unlock 方法,复制文件,写入新数据,然后移动它(移动,而不是复制 - 移动是 Linux 中的原子操作 - 检查您的操作系统),然后检查锁定文件的存在。
- 使用目录作为“锁”。如果您要写入 NFS,这是必要的,因为 NFS 不支持flock()。
- 也有可能在进程之间使用共享内存,但我从未尝试过;这是非常特定于操作系统的。
对于所有这些方法,您必须使用自旋锁(失败后重试)技术来获取和测试锁。这确实为错误同步留下了一个小窗口,但它通常足够小,不会成为主要问题。
如果您正在寻找跨平台的解决方案,那么您最好通过其他机制登录到另一个系统(下一个最好的方法是上面的 NFS 技术)。
请注意,sqlite 受到与普通文件相同的 NFS 约束,因此您无法写入网络共享上的 sqlite 数据库并免费获得同步。
在操作系统级别协调对单个文件的访问充满了您可能不想解决的各种问题。
您最好的选择是有一个单独的进程来协调对该文件的读/写访问。
下面是一个如何使用filelock库的示例,它类似于Evan Fossmark 的实现:
from filelock import FileLock
lockfile = r"c:\scr.txt"
lock = FileLock(lockfile + ".lock")
with lock:
file = open(path, "w")
file.write("123")
file.close()
块中的任何代码with lock:
都是线程安全的,这意味着它将在另一个进程访问该文件之前完成。
锁定文件通常是特定于平台的操作,因此您可能需要考虑在不同操作系统上运行的可能性。例如:
import os
def my_lock(f):
if os.name == "posix":
# Unix or OS X specific locking here
elif os.name == "nt":
# Windows specific locking here
else:
print "Unknown operating system, lock unavailable"
我一直在处理这样的情况,我从同一个目录/文件夹中运行同一个程序的多个副本并记录错误。我的方法是在打开日志文件之前将“锁定文件”写入磁盘。程序在继续之前检查“锁定文件”是否存在,如果“锁定文件”存在则等待轮到它。
这是代码:
def errlogger(error):
while True:
if not exists('errloglock'):
lock = open('errloglock', 'w')
if exists('errorlog'): log = open('errorlog', 'a')
else: log = open('errorlog', 'w')
log.write(str(datetime.utcnow())[0:-7] + ' ' + error + '\n')
log.close()
remove('errloglock')
return
else:
check = stat('errloglock')
if time() - check.st_ctime > 0.01: remove('errloglock')
print('waiting my turn')
编辑---在考虑了上面关于过时锁的一些评论之后,我编辑了代码以添加对“锁文件”过时的检查。在我的系统上对该函数进行数千次迭代,平均为 0.002066... 秒:
lock = open('errloglock', 'w')
到之后:
remove('errloglock')
所以我想我会从这个数量的 5 倍开始,以指示陈旧性并监控问题的情况。
此外,当我处理时间安排时,我意识到我有一些并非真正必要的代码:
lock.close()
我在公开声明之后立即删除了它,因此我在此编辑中将其删除。
这对我有用:不要占用大文件,将创建文件 Temp 的几个小文件分发,删除文件 A,然后将文件 Temp 重命名为 A。
import os
import json
def Server():
i = 0
while i == 0:
try:
with open(File_Temp, "w") as file:
json.dump(DATA, file, indent=2)
if os.path.exists(File_A):
os.remove(File_A)
os.rename(File_Temp, File_A)
i = 1
except OSError as e:
print ("file locked: " ,str(e))
time.sleep(1)
def Clients():
i = 0
while i == 0:
try:
if os.path.exists(File_A):
with open(File_A,"r") as file:
DATA_Temp = file.read()
DATA = json.loads(DATA_Temp)
i = 1
except OSError as e:
print (str(e))
time.sleep(1)
场景是这样的:用户请求一个文件来做某事。然后,如果用户再次发送相同的请求,它会通知用户第二个请求在第一个请求完成之前没有完成。这就是为什么,我使用锁机制来处理这个问题。
这是我的工作代码:
from lockfile import LockFile
lock = LockFile(lock_file_path)
status = ""
if not lock.is_locked():
lock.acquire()
status = lock.path + ' is locked.'
print status
else:
status = lock.path + " is already locked."
print status
return status
我从 grizzled-python 中找到了一个简单且有效的(!)实现。
简单使用 os.open(..., O_EXCL) + os.close() 在 Windows 上不起作用。
您可能会发现pylocker非常有用。它可用于锁定文件或一般的锁定机制,并且可以同时从多个 Python 进程访问。
如果您只是想锁定一个文件,那么它是如何工作的:
import uuid
from pylocker import Locker
# create a unique lock pass. This can be any string.
lpass = str(uuid.uuid1())
# create locker instance.
FL = Locker(filePath='myfile.txt', lockPass=lpass, mode='w')
# aquire the lock
with FL as r:
# get the result
acquired, code, fd = r
# check if aquired.
if fd is not None:
print fd
fd.write("I have succesfuly aquired the lock !")
# no need to release anything or to close the file descriptor,
# with statement takes care of that. let's print fd and verify that.
print fd