24小时联系电话:185 8888 888

要闻
您现在的位置: 首页 > 要闻 > 苹果联合创始人沃兹尼亚克回应性别歧视苹果卡指控
  • 破记录的2万亿美元刺激计划中有什么?

    破记录的2万亿美元刺激计划中有什么?

    发布时间:2020/03/27

    经过几天的谈判,美国参议院今晚对第三项反对冠状病毒危机的法案进行投票。前两个法案着重于为医学研究提供资金并向病毒受害者提供经济支持,而“第三阶段”刺激法案则是对整个美国经济的大规模救助方案。这将花费...

  • 世界在煤炭支持上花费了半万亿美元

    世界在煤炭支持上花费了半万亿美元

    发布时间:2020/03/17

    全世界的国家有可能继续支持煤炭行业,而不是投资于成本更低,对环境更友好的风能和太阳能项目,从而浪费6400亿美元。 金融智囊团Carbon Tracker在周四发布的一份报告中说,全球60%的燃煤发电厂以比可再生能源替...

  • 您还不知道怎么毫无危险的投资?

    您还不知道怎么毫无危险的投资?

    发布时间:2020/03/13

    查看了许多财务平台,阅读有关加密货币、证券交易所的信息并没找到了答案? 我也处于过类似情况。我现在写出这篇文章,以帮助您与AlysDax公司一起开始工作! 前几天,我的朋友建议我AlysDax平台,哪个专为机构投...

  • MK FOREX提醒您:黄金:迈向短期阻力的路上

    MK FOREX提醒您:黄金:迈向短期阻力的路上

    发布时间:2020/03/02

    金价延续自1625美元/盎司开始的反弹 正常的RSI情况表明反弹将持续 关键的斐波纳奇回撤位,附近的上升趋势线限制了短线下跌 截至周四早间,金价在每盎司1,650美元附近。金价周三走出了U型走势。 黄金价格最近从162...

苹果联合创始人沃兹尼亚克回应性别歧视苹果卡指控

发布时间:2019/11/13 要闻 浏览次数:842

 
消费者称苹果的信用额度是男性的十倍
美国监管机构将调查高盛(Goldman Sachs)用于确定Apple Card客户信用额度的算法,以涉嫌歧视妇女。
苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)支持大卫·海涅迈尔·汉森(David Heinemeier Hansson)在Twitter上提出的主张,该主张最终风靡一时,称他妻子的Apple Card信用额度比自己的信用额度低20倍,尽管她的信用评分更高。
@AppleCard真是个该死的性别歧视计划。我和我的妻子提交了联合纳税申报表,居住在社区财产州,并且已经结婚很长时间了。然而,苹果公司的黑匣子算法认为我应得的信用额度是她的20倍。没有上诉的工作。 — DHH(@dhh)2019年11月7日
汉森严厉的Twiter长辫子跨越了多个线程,并补充说,即使他的妻子提前全额支付了她的“低得离谱”的限额,该卡也不允许她在下一个计费期之前花费。
沃兹尼亚克(Wozniak)于1976年与史蒂夫·乔布斯(Steve Jobs)一起帮助创立了苹果公司,证实了汉森的主张,并用自己的类似故事回应了他的原始推文–他的信用额度比妻子的信用额度高十倍。
同样的事情发生在我们身上。我们没有单独的银行帐户,信用卡或任何种类的资产。我们双方的卡(包括我们的AmEx Centurion卡)都有相同的上限。但是是Apple Card的10倍。 -史蒂夫·沃兹尼亚克(@stevewoz)2019年11月10日
IT Pro与Goldman Sachs取得了联系,但在发布时未作任何答复。
苹果发言人向IT Pro证实,该公司在卡的运行方面几乎没有投入,他说:“卡的所有信用决定和运营管理均由银行完成。”
汉森表示,在提出与苹果公司客户服务有关的问题后,汉森被告知代表们不知道限额为何不同,他们只是说“这只是算法”。经过讨论,他的妻子的限额随后提高到与他自己的限额相匹配。
“任何有意或无意导致对妇女或任何其他受保护阶级的歧视性待遇的算法都违反了纽约法律。”
苹果卡是高盛的第一张信用卡,并伴随着其提供更多面向消费者的产品(例如个人贷款和储蓄帐户)的推动。
彭博社对这家投资银行表示:“我们的信用决策是基于客户的信誉度,而不是基于性别,种族,年龄,性取向或法律禁止的任何其他基础等因素。”
目前尚不清楚用于确定信用额度的算法是由Apple还是Goldman Sachs开发的。无论哪个公司开发了该算法,都不太可能与其他提供商使用的任何信用卡一起使用。还不清楚苹果是否在知情的情况下批准了在其产品上使用的算法。
多年来,一直有人呼吁规范AI和算法的使用,这并不是第一次有人声称对自动决策工具有歧视。
偏见的历史
算法已在求职行业中广泛使用,以快速筛选出申请人,从而节省了冗长的人工分析简历和求职信的过程。此类技术已经受到了广泛的审查,特别是在英国,这些特定案例遭到投诉。
2019年3月,英国政府对算法可能存在的偏差进行了调查。引用的一个例子是达勒姆(Durham)使用的危害评估风险工具(Harm Assessment Risk Tool)来确定犯罪分子再次犯罪的可能性,该工具被裁定是根据其收入不公平地针对用户。
进入面试阶段的候选人也可能会遇到摄像头,以分析他们的面部表情和声音,以确定他们是否适合这份工作-隐私权倡导者谴责了这种做法。
内政部还对其“秘密”算法进行法律调查,该算法用于制定有关移民政策的重要决定。据说,当人工审查可能以更公平的方式说明其优缺点时,该软件会不公平地判断移民申请人,而不是仅仅依靠简单的标准(例如年龄或国籍)。

姓 名:
邮箱
留 言: