如果您有与Chatgpt共享所有内容的习惯,请继续!考虑以下统计数据:
从2022年6月到2023年5月,有超过100,000多个Openai Chatgpt帐户的付费用户的凭据被妥协并在黑暗的网络市场上出售。现在,考虑您的Chatgpt帐户陷入了这样的网络攻击,对您来说是不幸的,它知道您以前的对话中的所有证书和个人秘密。你会怎么办?
这正是网络安全专家警告的。作为一个社会,我们已经接受了我们的数字最好朋友的AI聊天机器人,我们在其中承认所有秘密。但是,网络安全专家严格建议它。
专家警告说,尽管在不知不觉中或有意披露敏感数据的情况下,这些平台很方便且功能强大,但这些平台会带来重大风险。毕竟,这些聊天机器人以您提供的培训目的和有时提供的数据为食,最终会保留记录。此外,允许您过多地访问您的凭证和个人信息,使这些AI工具对个人隐私有害。
哪个聊天机器人是您首选的选择都没关系。无论是Openai的Chatgpt,Google的双子座,困惑和拟人化,如果您与机器人分享了您的凭据和秘密,您将处于危险之中。
AgileBlue(网络安全公司)共享的安全提示突出了五个关键信息类别,这些信息在与ChatGPT或类似AI工具进行互动时应始终保密。他们说,一旦将信息输入这些系统,就无法保证其隐私和安全性。
因此,以下是避免与Chatgpt和任何其他AI聊天机器人共享的五种关键信息类型。
个人身份信息(PII)
这包括任何可以唯一识别个人的数据。这包括核心信息,例如全名,出生日期,社会保险号,地址,电话号码和电子邮件地址。共享此类个人信息可能会导致严重的后果,包括身份盗用,财务欺诈和未经授权的个人帐户访问。
财务和银行信息:
诸如信用卡号,银行帐户凭据和其他付款信息之类的详细信息绝不应与AI系统共享。违反这些数据可能会导致欺诈交易,排水账户和财务不稳定。专家强调,仅使用加密和安全的渠道进行金融交易的重要性,而不是依靠代理AI代表您进行交易。
密码和登录凭据:
在线身份,密码,别针和安全答案的数字键绝不能与Chatgpt共享。共享此类证书为恶意实体未经授权的访问带来了重大脆弱性。安全专家建议双因素身份验证和专用密码管理器,以防您最终与AI聊天机器人共享凭据。
私人或机密信息:
这包含个人秘密,私密的细节和敏感的工作相关信息。 AI系统缺乏人类的背景和理解,这是保护这种数据所需的。因此,共享它会使意外披露具有高风险。对于专业人士,共享机密业务信息可能会导致违反信任,法律问题和对组织竞争优势的伤害,从而违反合同和最终裁员。
专有或知识产权:
专家还警告不要共享知识产权,包括专利的想法,受版权保护的材料,商业秘密和专有法规。基本上,专家说您不应该分享任何代表重要价值的东西。与ChatGpt有风险盗窃,未经授权使用和潜在的法律纠纷。专家认为,保护这些创新对于个人和组织保持所有权和商业价值至关重要。
您的秘密和证书绝不应与任何数字实体共享。无论是朋友还是AI聊天机器人,您都应该避免与在线任何人分享您的秘密。