时间:2024-05-30 点击: 次 来源:网络投稿 作者:宋怡欣 - 小 + 大
人工智能是现代计算机科学领域发展下的重要产物,可从理论、方法、技术等层面实现人的智能延伸。在为社会发展提供便利的同时,人工智能的泛化应用也催生了对应的伦理风险,诸如算法歧视、算法失真、ai复活、责任界定困难等,需以特定防范举措加以控制。 为了分析人工智能催生的伦理风险及其成因,并在厘清其应用原则的前提下拟建科学的化解风险的路径,江苏师范大学“人工智能伦理风险”调研团来到当地社区,对一些经常使用生成式人工智能的居民进行了访谈。 采访中,曾遇到过“ai视频”诈骗的冯先生说当时他正在家中浏览抖音,一位使用表哥真人头像的用户给他发来消息,让他添加自己的qq,称有事和他说。冯天平时和表哥来往不多,此前,他从未添加过表哥的微信和qq。添加qq好友后,“表哥”主动给冯天打了一通视频电话。视频里“表哥”正对摄像头,坐在办公室中,说话声音较轻。7秒后,还没等冯天听清,“表哥”便挂断了电话。“表哥”告诉冯天,自己要转一笔钱,但碍于领导身份,不方便以私人账户转款,想让朋友将钱先转到冯天账户上,再由他转到指定账户中。“表哥”将一份65万元的转款凭证发给冯天,并向冯天解释大额转账需要24小时才能到账,自己着急用钱,催促冯天垫付。冯天相信了这套说辞,向“表哥”指定的账户转入30万元。期间他再次打开抖音,发现“表哥”的账号因违反《抖音社区自律公约》,已被系统封禁。冯天这才意识到自己可能遭遇了诈骗。向表哥打电话确认后,冯天选择了报警,警方在行动中将诈骗人员成功抓获。 采访后,团队人员进行了更深层的调查,概括出以下几种人工智能的风险点: 1. 隐私泄露风险:随着人工智能技术的广泛应用,智能设备如智能音箱、智能摄像头等可能会收集用户的语音、图像等个人信息。如果这些信息被滥用或泄露,将严重侵害用户的隐私权。例如,智能家居系统可能会记录用户的日常习惯和行为,如果这些数据被未经授权地访问或使用,将带来隐私泄露的风险。 2.歧视风险:人工智能系统可能会基于特定的算法和数据进行决策,这些决策可能会导致歧视性的结果。例如,招聘面试中的自动筛选系统可能会基于种族、性别等因素对申请者进行歧视性的排斥。 3.安全风险:人工智能系统的安全风险主要体现在系统被攻击或滥用的情况下。一旦人工智能系统受到黑客攻击,可能会导致严重的社会影响,如金融欺诈、能源供应中断等。 4.道德风险:人工智能系统在作出决策的过程中,可能会出现道德困境。例如,在自动驾驶汽车面临撞人或撞车的选择时,如何进行决策是一个严峻的道德考量。在人工智能系统中灌输道德和伦理价值观是一项相当大的挑战,需要研究人员和开发人员特别关注。 5.责任归属和问责机制问题:随着人工智能系统的自主性和复杂性的提高,其可能产生一些不可预测或不可控制的后果。当发生侵权或损害时,应该由谁来承担责任成为一个重要的问题。建立有效的问责机制和损失补偿机制是应对这一风险的关键。 通过此次访谈与调查,我们深刻认识到“ai换脸”技术发展是不可阻挡的趋势,技术应用也往往超前于风险应对手段的产生,要遏制“ai换脸”等人工智能领域的深度合成技术应用乱象,还得监管部门、平台、网民多方形成合力,多管齐下。包括建立健全人工智能伦理道德规范和标准,加强数据保护和隐私安全,促进人工智能技术的公平公正和非歧视性,以及加强国际合作和全球治理等。 作者:宋怡欣 |
上一篇:绥德革命纪念馆开馆