我正在处理一个项目,其中包含来自客户的一些有趣请求。想知道是否有人有任何建议或想要权衡。
我正在为我的客户创建一个Web应用程序,以便在内部分发给公司中的少数人。他们需要能够从世界上任何地方访问Web App。
客户要求其用户 NOT 必须登录才能使用该应用,但他们并不希望世界上的所有人都能访问该应用。它让我想到了Google Apps共享功能,您可以在其中创建链接以及链接可以访问该文件的任何人。基本上默默无闻的安全。所以我认为我可以创建一个基本上是50或60个随机字母数字字符的URL,然后客户端可以与他们的团队共享。
我想知道这是不是最好的主意,或者是否有更好的方法可以解决这个问题。
另外,为了确保不会抓取网页,我计划使用阻止所有内容的robots.txt文件。
最后,我们希望使用Google Analytics收集分析,以便他们更好地了解员工如何使用该应用。我的理解是,谷歌分析和谷歌搜索之间没有直接联系,因为只要我使用robots.txt阻止谷歌搜索机器人,谷歌分析中捕获的任何内容都不会被自动编入索引。我想确保是这种情况。发送给Google Analytics的任何内容都不会自动显示在公共论坛中。
这一切的关键是能够创建一个工作流程来确保客户,只要链接没有进入公众,他们的内容就会得到保护。&# 34;或者至少,受保护的内容可以是受保护的。
有什么想法吗?
谢谢, 豪伊
答案 0 :(得分:2)
其他建议:
robots.txt
的搜索引擎,但他们可能不会试图蛮力这样的东西。你能不能在任何时候登录?拥有一个更加安全的“永远记住我”的系统,你只需要在出现故障时登录就可以比替代方案好得多。
答案 1 :(得分:1)
我会仔细阅读GA和Google的一般ToS和政策的ToS。也许他们的蜘蛛会忽略它,也许他们不会。您可以打赌,即使他们没有直接将其放入谷歌SERP,他们仍然会记录您的网址某处。谁明天说他们的政策不会改变?
如果有人通过电子邮件将链接发送给其他人呢?它几乎肯定是gmail内的公平游戏。 Gmail肯定在他们的ToS中可以扫描您的电子邮件并将其用于定向广告。这意味着谁知道该链接将被传递给谁。或任何其他电子邮件或即时消息或通信服务。
另外,底线是爬虫不必尊重robots.txt,并且有很多机器人没有。只需要找到它并将其放在网站页面上的某个位置,可公开访问的文件等等。这与robots.txt无关,迟早它可能会发现自己在google(或bing等)上。 。)serp没有直接从你的网站上抓取它。
如果是我,我绝对会150%告诉他们底线是你甚至无法保证API的隐私而不会落后于某种身份验证障碍。
编辑:制作自己的客户端的前景如何,就像在手机/电脑上安装java应用程序一样?它仍然可以使用互联网和后端的服务器端脚本,但可以通过独立应用程序访问该界面。这样,有人必须让应用程序使用它,并且用于与您的服务器通信的公共URL(实际上我使用套接字)将更加可以防御。