加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

我可以让fcntl和Perl警报合作吗?

发布时间:2020-12-15 23:32:24 所属栏目:大数据 来源:网络整理
导读:我在 Linux上,nfs,涉及多台机器. 我正在尝试使用fcntl来实现文件锁定.我一直在使用flock,直到我发现它只能在同一台机器上的进程之间工作. 现在当我用F_SETLKW调用fcntl时,perl警报(用于添加超时)不像以前那样工作.这通常没问题,但是ctrl-c也没有用. 我相信正
我在 Linux上,nfs,涉及多台机器.

我正在尝试使用fcntl来实现文件锁定.我一直在使用flock,直到我发现它只能在同一台机器上的进程之间工作.

现在当我用F_SETLKW调用fcntl时,perl警报(用于添加超时)不像以前那样工作.这通常没问题,但是ctrl-c也没有用.

我相信正在发生的事情是,fcntl每隔30秒左右只检查一次信号.警报最终会回来. ctrl-c最终被抓住了.

有什么办法可以调整fcntl检查这些信号的频率吗?

解决方法

我绝对不是这方面的专家,但我的知识是fcntl,正如你所说的那样,对你的情况不起作用. fcntl咨询锁仅在同一台机器中有意义.

所以忘记我,如果这是偏离主题.我使用File::NFSLock解决缓存风暴/ dogpile / stampeding问题.有多个应用程序服务器在NFS卷上读取和写入缓存文件(不是很好的主意,但这就是我们开始的).

我继承/包装File :: NFSLock来修改它的行为.特别是我需要:

>持久锁,当File :: NFSLock对象超出范围时不会消失.使用常规的File :: NFSLock,当对象超出范围时,您的锁将消失.这不是我需要的.
>实际锁定文件还包含获取锁定的计算机的名称.进程ID显然不足以决定进程是否终止,因此我可以安全地窃取锁文件.所以我修改了代码来将lockfiles写成machine:pid而不仅仅是pid.

这已经有好几年了.

直到请求量增加了10倍.也就是说,上个月我开始遇到第一个问题,即两个后端同时写入一个非常繁忙的缓存文件,留下死锁.当我们每天达到大约9-10M的整体综合浏览量时,这发生在我身上,只是为了给你一个想法.

最终破碎的缓存文件看起来像:

<!-- START OF CACHE FILE BY BACKEND b1 -->
... cache file contents ...
<!--   END OF CACHE FILE BY BACKEND b1 -->
... more cache file contents ... wtf ...
<!--   END OF CACHE FILE BY BACKEND b2 -->

只有当两个后端同时写入同一个文件时才会发生这种情况……目前还不清楚这个问题是由File :: NFSLock导致我们的mod还是应用程序中的一些bug.

总而言之,如果你的应用程序不是非常繁忙和被贩运,那么去File :: NFSLock,我认为这是你最好的选择.您确定还想使用NFS吗?

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读