政治密友坠机身亡后,泽连斯基称不担心自身安全******
中新网1月19日电 五天之内,乌克兰发生两起令人焦心的平民伤亡事件,先是第聂伯罗住宅楼突遭导弹袭击45名平民殒命,接着就是内务部长乘坐的直升机在首都基辅近郊幼儿园附近坠毁,造成包括儿童在内十余人遇难。
忙着在达沃斯论坛视频讲话的乌克兰总统泽连斯基,一边表示不担心自己的人身安全,一边暗示俄罗斯发起军事行动才是造成这一切的根本原因,最后不忘继续催促西方盟友加快军援。
“雾很大没有光……在幼儿园附近坠落”
乌克兰国家紧急情况局18日下午发布最新消息说,当天在基辅市东郊布罗瓦雷发生的直升机坠机事件共造成14人死亡、25人受伤。国家紧急情况局将此前的18人遇难,修改为14人死亡。
直升机上的9人全部死亡,包括内务部长杰尼斯·莫纳斯特尔斯基和内务部第一副部长叶夫根·叶宁等几名乌克兰政府高级官员。
直升机坠毁后爆炸起火,地面建筑受损,死伤者中也包含坠机现场附近的儿童。
据英国广播公司(BBC)援引当地居民Volodymyr Yermelenko的话说:“当时雾很大,没有电,没有电时建筑物上就没有灯。”
其他目击者称,飞行员在坠机前曾试图避开高层建筑,而是在幼儿园附近坠落。
一位当地妇女告诉BBC,当直升机在她家上空盘旋时,她看到了可怕的闪光。她说,飞行员显然试图避开她10层高的公寓楼,并选择靠近较小的建筑物。
目前,没有迹象表明坠机事故不是意外。但乌克兰国家安全部门表示,正在调查坠机的几个可能原因,其中包括人为破坏、技术故障或飞行员违反飞行规则。
就在四天前的14日,乌克兰遭受了自危机升级以来最严重的袭击之一,第聂伯罗的一栋住宅楼突然遭到导弹袭击,大楼被夷为平地,45名平民不幸丧生,其中包括6名儿童。
“他的死深深刺痛了基辅政府的心脏”
BBC称,在坠机事故中丧生的内务部长杰尼斯·莫纳斯特尔斯基是泽连斯基总统任职时间最长的政治顾问之一,他是自乌克兰危机开始以来乌克兰方面死亡的最高级别政府官员。
英媒称,他的死“深深刺痛了基辅政府的心脏”,因为内务部长在危机期间肩负着维持治安和管理警察的重要任务。
在整个乌克兰危机期间,他是乌克兰人最熟知的面孔之一,他曾负责向公众介绍自2022年 2月以来俄罗斯导弹袭击造成的伤亡情况。
已故部长的一位朋友、国会议员Mariia Mezentseva说,这对每个人来说都是一场悲剧,因为他在乌克兰应对危机方面发挥了重要作用。“他对同事、朋友和家人全天候做出回应。从总统竞选的第一天起,他就与泽连斯基非常亲密。”
在莫纳斯特尔斯基去世后,乌克兰国家警察部队负责人伊戈尔·克利缅科兼任内务部副部长并代行内务部长职务。
资料图:泽连斯基。“我不担心自己的安全”
就在直升机坠毁的消息传出几个小时后,泽连斯基在瑞士达沃斯举行的世界经济论坛上发表视频讲话,CNN评论员法里德扎卡里亚询问他是否担心当前的威胁和自己的安全。
他说,“不,我不担心。我没有什么可补充的。”
媒体称泽连斯基多次成为暗杀未遂的目标,但他本人对安全问题置若罔闻。
2022年2月底俄罗斯开展特别军事行动后不久,泽连斯基拒绝了美国提议他从基辅撤离的提议。
泽连斯基在2022年说的最受欢迎的一句话是“我需要弹药,而不是搭便车。”
“这不是意外”
CNN评论员还说,“我们认为这是一场意外,我们希望是一场意外。”
“这不是意外,”泽连斯基回应称,因为它是由军事行动引起的。他认为,目前俄乌局势之下,没有“意外”可言。
乌克兰没有说俄罗斯直接参与其中,但美国《华尔街日报》称,泽连斯基很明显将坠机事件归咎于俄罗斯对乌克兰发动的特别军事行动。
在哀悼遇难者和谴责俄罗斯之余,泽连斯基不忘继续敦促西方领导人加快行动,向乌克兰提供武器,以帮助抵御俄罗斯令人担忧的新攻势。
《华尔街日报》称,乌克兰官员和军事分析家最近几周警告说,俄罗斯可能正在准备采取新的行动,以重新获得在乌克兰的军事主动权。
人工智能如何做到可信、可用?专家热议:把责任归结到个人****** 中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短? 近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。 中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。 “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。 清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。 “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。 瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。 “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。 将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候? 高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。 高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。” “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。 “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。 2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
|