一种人工智能算法可以帮助防止自杀

文章正文
发布时间:2018-01-22 08:45

在我们的世界里,自杀对我们来说并不是新生物。一次又一次,有些人因为某种因素而放弃了生活,而放弃了生活。

伤心的是,无数的生命过早地结束了,因为他们自己决定生活不值得过。当发生这种情况时,“抑郁症”在很大程度上被视为致病因素。

在迈阿密,最近的一个案例引起了人们的关注,一位14岁的老人在社交媒体上发帖说“我不想再活不下去”。一年后,她通过Facebook挂在网络摄像头前,自杀身亡。

她的一位朋友联系了警察,他们来得太晚,无法挽救她,因为数千人在观看现场直播时长达两个小时的自杀。

就像事情发生的那样糟糕,它不被认为是完全独特的;从统计上看,美国,欧洲和东南亚的青少年死亡的第二大原因是“自杀”。

Facebook,Google,Siri,Snapchat和Alexa上数以百万计的日常社交媒体和聊天记录与心理健康息息相关。这些帖子可以拼凑在一起,同时接受社交媒体用户提出的暗示性自杀声明和面包屑,心理或精神健康方面的挑战。

但是,有些问题需要回答。

科技和社交媒体公司是否可以利用自杀相关的帖子寻找和帮助那些主要有自杀风险的人?

Google或Siri等人能够及时回应寻找抑郁症和自杀相关信息的人吗?

当青少年秘密聊天自杀行为时,像Snapchat这样的平台如何快速反应?

遏制自杀潮

以上问题不仅仅是猜测和假设,因为有些科技巨头已经主动采取行动。例如,在美国,任何谷歌搜索临床抑郁症状,继续启动一个私人筛查测试抑郁症(PHQ-9)和知识面板。

科技巨头Google已经表示,为了保持隐私,它不会将个人的身份与他们回答的测试答案联系起来。谷歌还表示,他们打算收集匿名数据来改善他们的服务和用户体验。

尽管数百万人正在网上进行测试 -从搜索自杀和抑郁症的信息中发现,大量的数据正在产生,可能有助于产生抑郁症的数字指纹。

人工智能(AI)算法

在流氓自杀的消极体系生活之后,Facebook提出了一个“人工智能算法”,以便扫描人们发现的表示抑郁症和自杀倾向的文章,图像和文字。

人工智能一旦发现人的图像,行为或语言自杀倾向,就可能会向当局提出“自我伤害”的信号,然后向用户提供资源,并提醒内部的“移情团队”。

在现场,如果他们的姑息行为不能避免自我伤害或自杀行为,可能会通知急救人员。根据Facebook关于这个新AI的政策,人们不能退出主动。

经过数月推出的AI算法,Facebook Boss,Mark Zuckerberg指出,该算法已经帮助了超过100人。

关注隐私规则和政策

谷歌和脸书必须赞赏启动技术决定通过人工智能算法自杀倾向的过程,他们干扰他们。尽管监测创新出色,但仍有人担心。

关注和挑战包括:

为了监测我们的健康,社交媒体公司是否需要单独同意批准A.I的监测?

由于这些公司将监测他们平台用户的心理健康状况,他们的人工智能算法是否需要进行分析以显示效果?

当直播的意图变得清晰时(例如自我伤害或自杀),是否应该允许进行,还是应该切断?

人们的心理健康数据库是否可以用来作为抗抑郁药的目标广告?

在数据政策薄弱的国家,社交媒体用户会受到同样的监控吗?值得注意的是,Facebook的AI还没有在欧洲上市,因为该公司不符合欧洲更严格的隐私政策。

此外,旨在遏制青少年精神健康问题的程序是否更多地集中在人工智能社交媒体监控上?

结论

目前,人工智能算法对社交媒体情绪的分析还不够完善。而且,从文化到文化,精神疾病的确切视角也各不相同。许多临床医生也知道,大多数计划自杀的人会否认这一点,这使研究复杂化。

进一步分析了由Text-based精神卫生服务机构Crisis Text Line进行的5500万个自杀人士的短信显示,那些正在考虑自杀的人更可能使用“药丸”或“桥梁”等字眼,而不是“自杀”这个词本身。

无论担忧和挑战如何,Facebook都预见到人工智能作为一种有益的工具,可以比朋友更快地发现在线自杀倾向。但是,将AI算法和经验丰富的辅导员结合起来以应对危险和自杀的职位将有助于减少目前的自杀统计和趋势。

为了大规模应对青少年的自杀倾向,公私机构和多方利益相关者之间的伙伴关系必须围绕一些有效的研究指导方针。此外,人工智能算法应该是透明的,搜索研究的结果应该是开放的,以保证世界各地的研究人员能够为所涉及的各种技术和社会公司灌输和帮助公众信任。

最后,人工智能和脑科学的进步,给人类和研究学习带来了很大的好处。但是,这一切都应该在适当的道德和科学框架下进行

文章评论
—— 标签 ——
首页
评论
分享
Top