2024-12-31 17:06:46 科技 21247阅读
全球最大的非营利性学术医疗系统之一克利夫兰诊所进行的一项调查显示,约 20% 的美国人向人工智能询问过健康问题。 Tebra 去年发布的统计结果还显示,25% 的美国人更有可能使用聊天机器人,而不是参加心理治疗课程。
不过,专家警告用户不要与人工智能分享太多内容。像 ChatGPT 这样的聊天机器人不受健康保险流通与责任法案 (HIPAA) 合规性的约束,因此它们不应该被用来总结医疗记录、寻求健康建议或授予对私人数据的访问权限。
ChatGPT 界面。照片:宝林
其他避免与人工智能“对话”的内容包括登录信息、财务数据、安全问题的答案、姓名、电话号码和个人地址。敏感内容、非法建议或其他人的个人信息也不应该被披露,因为这些数据可能会被泄露。
“你提供给聊天机器人的任何信息都可以用来对付你。不要在与人工智能的对话中分享你自己、你的公司或客户的密码、护照或银行卡号码、地址、电话号码、姓名或其他个人数据”,说安全公司卡巴斯基的专家斯坦·卡明斯基(Stan Kaminsky)。
“您可以用符号星号或“已经”一词替换上述信息删除‘在你的命令中’”,卡明斯基提到了解决方案。
工作场所的安全信息也应牢记在心,避免侵犯隐私。 “您可能想要上传文档文件以请求内容摘要。这可能会导致数据泄露、知识产权、商业秘密,例如新产品的发布日期或团队的工资单”,卡明斯基建议。
Diep Anh (据纽约邮报)