机器人/ AI
首页 机器人/ AI
红旗不倒 2019-11-18 17:52
机器算法公平性感知的定性探索
1 摘要 人们所接触的信息越来越多地被算法系统影响,并影响有关就业、财务和其他机会的决策。在某些情况下,算法系统可能或多或少地对某些群体或个人有利,这 ...
红旗不倒 2019-11-18 17:46
机器学习模型:黑盒下的正义,加密敏感属性的公平性
1.摘要 近年来的研究探索了如何训练机器学习模型,这些模型不会因性别或种族等敏感属性所决定的不同群体而产生歧视。为避免差别待遇,不应考虑敏感属性。另一 ...
红旗不倒 2019-11-15 10:12
在以太坊智能合约中摆脱gas条件
本文主要贡献 从EVM字节码到结构化低级IR的反编译器:我们建议直接使用EVMbytecode进行静态编程分析。由于EVM的基于堆栈的低级特性以及最小的控制流结构,分析 ...
红旗不倒 2019-11-15 10:09
securify:以太坊智能合约的实证安全分析
无许可区块链允许执行任意程序(称为智能合约),允许相互不可信的实体在不依赖可信第三方的情况下进行交互。尽管存在这样的潜力,但不断出现的安全担忧已经动摇 ...
红旗不倒 2019-11-15 10:07
TEETHER:发现以太坊的自动化漏洞
1.1 引用 Krupp, Johannes, and Christian Rossow. "teether: Gnawing at ethereum to automatically exploit smart contracts." 27th {USENIX} Security Sy ...
blackguest 2019-11-14 17:13
原创 Python机器学习---Stand on Shoulders of Giants(站在巨人的肩膀上)
首先非常高兴可以获得这次测评机会,收到书也有一段时间了,恰巧我也是在日常学习生活中有用到机器学习的,下面来分享一下我对这本书的阅读心得,不当之处 ...
红旗不倒 2019-11-14 10:36
定义算法该如何定义公平,审视公众对公平算法定义的态度?
1.摘要 定义算法公平性的最佳方法是什么?虽然计算机科学文献中提出了许多公平定义,但对特定定义没有明确的一致意见。在本文中,我们调查了普通人对这三种公 ...
红旗不倒 2019-11-14 10:31
算法决策规则与公平安全成本
摘要: 现在经常使用算法来判断带审判的被告是否极度危险而不能释放,在某些案例中,被告为黑人更倾向于被错误地分类为高风险人群。现在已有许多技术来减轻 ...
红旗不倒 2019-11-14 10:28
公平性度量指标:基于矩阵分解的协同过滤方法
提出了新的推荐算法公平性度量指标,并阐明了对其进行优化以解决各类不公平性问题。推荐系统基于用户的历史行为而产生支持决策的结果推荐,其在电影、商品、求 ...
红旗不倒 2019-11-13 15:22
鲁棒性的文本分类中的反事实公平方法
本文研究了文本分类中的反事实公平性,提出了这样一个问题:如果实例中引用的敏感属性不同,预测结果会发生什么变化?毒性分类器通过预测“有些人是同性恋”是 ...
红旗不倒 2019-11-13 15:20
机器学习重复损失最小化中无人口统计的公平性
机器学习模型(例如语音识别)通常被训练以最小化平均损失为目标,这会使表示差异的少数群体(例如非母语人士)对训练目标的贡献较小,因此往往导致更大的损失 ...
红旗不倒 2019-11-12 11:02
公平风险衡量标准定义
确保分类在敏感特征(例如,种族或性别)方面是非歧视性的或公平的是一个热门话题。这项任务的进展需要公平的定义,过去几年在这方面已经提出了一些建议。然而 ...
红旗不倒 2019-11-12 11:00
AI算法多精度:分类公平性的黑盒后处理
机器学习预测器已成功部署在从疾病诊断,信用评分预测到图像识别的各种应用中。虽然总体准确性很高,但预测也通常会产生系统性偏差,从而损害特定的人群,特别 ...
红旗不倒 2019-11-12 10:58
数学概念与人类对公平的感知:机器学习公平的描述性方法
最近,机器学习的公平性受到了相当多的关注。目前已经提出了各种衡量公平的数学公式,并且已经表明机器学习不可能同时满足这些公式。到目前为止,众多文献通过 ...
红旗不倒 2019-11-11 18:03
机器算法决策的公平性,多样性和随机性
思考单个机器学习分类器替代多人的二元决策过程。我们对决策过程中造成的多样性损失提出疑问。我们研究在公平意识学习的背景下使用随机分类器集合而不是单个分 ...
EE直播间
更多
关闭 站长推荐上一条 /3 下一条