xml – 自定义ATOM Feed在Google阅读器中复制我的条目
我有一个问题,我正在生成一个ATOM源,并且条目在读者中重复.
我已经开发了一个C#类来创建ATOM提要条目,并最终创建了一个来自我的数据元素的完整提要对象.它符合Atom Syndication Feed Format的RFC 4287. 正确生成Feed.它目前没有验证,因为我正在添加两个非标准扩展元素并且还没有为它创建一个合适的命名空间,但即使验证它也存在这个问题. 我还看到了我的直接Atom提要和FeedBurner提要之间的两种不同行为. 这是两个饲料. 我已经通过Google阅读器订阅了这两个Feed,并且其他用户的报告显示他们看到了同样的问题,但是当他们看到问题与我对比时并不一致. Feed#1问题: Feed#2问题: 我已经完成了我能想到的一切.我确保pubDate永远不会改变,文档的每个链接从发布时起都是不变的,添加了一个节点,帖子的实际和不变的guid作为值,但似乎没有任何帮助.我甚至强迫feedburner使用我的XML,希望问题可能出现在feedburner中. 我很茫然,我希望其他人有类似的情况,并有一些建议. 更新 是否有可能这与Feedburner无法访问我的Feed(因为它已关闭或某些东西)的某些连接问题有关,然后当它重新联机时Feedburner的东西是全新的内容?我的服务器已经超过一年没有任何延长的中断,但是有可能持续30秒到5分钟的问题. 这是最令人沮丧的问题,因为Feedburner / Google Reader都是这样的黑盒子. 解决方法
如果有人在寻找重复的Google阅读器后期解决方案时偶然发现这篇随机文章,我想我可能已经发现了问题的根本原因,这很烦人.
该博客有许多原子提要,但只有一个主要.主要Feed在任何给定时间列出了25个最新帖子,但除了该Feed之外,内容的元数据中还列出了其他可发现的Feed.这些包括类别供稿,评论供稿,特定于页面的供稿,热门帖子供稿等.看起来谷歌阅读器的所有智慧都在抓取所有这些供稿并将它们全部视为绝对不同的供稿和商品,即使它们所有帖子都有相同的唯一ID(帖子的网址).一旦我将所有这些作为可发现的Feed删除,并且还确保将主要的非www源重定向到带有www的那个,以确保所有URL都是唯一且不重复的,所有这些似乎都适用于全世界并且Google阅读器不是更长时间复制内容. 好吧,那是几个月的烦人和令人沮丧的项目,试图解决一个绝对无法调试或为开发人员提供有用信息的服务. 我希望有一天能帮助别人…… (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |