网络安全专家表示,必须有一个法律框架来规范人工智能的使用,防止滥用人工智能产生的深度造假,包括使用名人照片来欺骗马来西亚人。
网络安全法专家德里克·费尔南德斯表示,使用人工智能服务的人必须受到条款和条件的法律约束,包括披露是否使用人工智能来产生输出。
他在昨日接受采访时表示:“就网络安全而言,人工智能的使用必须像OTT平台一样受到法律监管,并受到同样的许可控制。”
OTT平台是提供流媒体服务的在线内容提供商,通常涉及娱乐和游戏。
他表示,必须强制要求所有提供能够产生深度伪造的人工智能服务的公司或个人进行注册和身份识别。
“应该要求这些人工智能服务提供商为所有人工智能生成的内容加水印,并提供必要的工具来检测这些水印,确保问责制和可追溯性。”
费尔南德斯补充说,托管人工智能生成内容的平台必须清楚地将其标记为人工智能生成。
他说:“提供人工智能服务的公司应该提供检测工具或执行合同义务,让用户披露人工智能生成的输出,确保透明度,防止滥用。”
他引用了香港的一个案例,一家公司被骗走了1.1亿令吉,原因是一段深度伪造的视频,该公司的“首席财务官”说服一名员工将钱转给骗子。
他说:“如果不加以管制,这种技术在坏人手中可以干预选举,煽动骚乱,威胁任何国家的和平、稳定与和谐。”
马来西亚通信和多媒体委员会成员补充说,除了对服务提供商实施针对此类骗局的数字保险外,还应采用强制性的24小时或48小时冷静期,以避免深度欺诈。
虽然可能会有人工智能工具来检测深度造假,但费尔南德斯表示,目前公众可能还无法轻易使用这些工具。
他说:“已经开发出来的用于检测深度伪造可能性的人工智能工具必须提供给所有政府,并最终提供给公众,这样他们的智能手机现在就能‘智能’地警告用户,视频或文本很可能是深度伪造的。”
他还表示,独立核实社交媒体上发布的主题也有助于避免被深度造假所欺骗。
“总是独立核实,最好是在不同的设备上,如果是企业或公司,使用官方联系信息。
他建议:“对于公众来说,一个简单的方法就是给你以为正在通话或正在视频会议的人打回你知道是他们的电话号码。”
穆罕默德·里扎·瓦希丁教授指出,在不久的将来,深度造假将变得更加难以检测,而且会变得更加猖獗。
“这是因为数字双胞胎的概念现在已经扩展到人类,‘人类数字双胞胎’这个词现在更常用。
“这些都是人工智能完善的电子数据。后者的阴暗面是,它使得深度造假很难被发现,”他在昨日接受采访时表示。
尽管TikTok等一些服务提供商可能会要求在特定视频中使用deepfake免责声明,但他表示,此类措施只能提供有限的保护。
马来西亚国际伊斯兰大学网络安全卓越中心的创始人和赞助人表示,目前有尖端的软件程序可以帮助检测深度造假。
其中包括Sentinel,它为政府、媒体和国防机构提供服务,以防止虚假信息;英特尔的FakeCatcher,可以以96%的准确率检测假视频;以及微软的视频认证工具(Video Authenticator Tool),该工具可以分析照片或视频,以确定它们是否被篡改过。
他说,目前这类软件主要由企业使用,并没有广泛向公众开放。
他补充说:“我预期这些工具最终会以开放源代码和专有软件的形式出现。”
目前,穆罕默德·里扎(Mohamed Ridza)表示,公众的教育和社交媒体素养是防范深度造假的最佳手段。
马来西亚消费者协会联合会(Fomca)首席执行官Saravanan Thambirajah表示,消费者在购买之前必须自己进行事实核查。
“对消费者来说,以健康的怀疑态度对待在线内容比以往任何时候都更重要,尤其是当它涉及名人和公众人物的代言时。
“如果你遇到一个看起来好得令人难以置信的促销活动,或者如果内容看起来有任何可疑之处,我强烈建议你不要立即相信它。
“相反,要花时间通过官方渠道或可信来源核实信息,”他在接受采访时表示。
萨拉瓦南承认,使用人工智能生成的深度造假来推广产品或实施诈骗一直令人深感担忧,尤其是涉及当地知名人士。
他说:“公众人物或任何受到这些人工智能操纵的受害者都应有权对肇事者采取迅速的法律行动,确保此类内容被迅速删除,责任人受到惩罚。”
他补充说,社交媒体平台必须承担责任,实施强有力的检测机制,以识别和防止深度虚假内容的传播。
×
有话要说...