Open LLMs bench饮食常识mark大模型能力评测标准计划TB体育官方网站

2023-05-17 02:32:42
浏览次数:
返回列表

  随着近年来人工智能技术的飞速发展,尤其是深度学习领域的突破,大型语言模型(LLMs)已经成为了研究和应用的热点。这些模型在自然语言处理、机器翻译等领域取得了显著的成果。然而,随着模型规模的不断扩大,如何对这些大模型进行有效、公平、可靠的评测,已经成为了业界关注的重要问题。

  为了解决这一问题,AIGC开放社区联合大模型厂商、服务商、开源社区、应用方等共同成立一个独立的第三方TB体育官方网站、非营利性组织:Open LLMs Benchmark开放大模型评测标准委员会(以下简称Open LLMs Benchmark委员会),旨在构建一个公开、透明饮食常识、可靠的大模型评测标准框架TB体育官方网站,为全球相关研究者、开发者和企业提供参考。

  本评测标准分为四个部分,包括基础能力、中文理解、行业理解、安全伦理(4个大类,29个小项)。

  基础要衡量模型的基本响应能力、句法理解和常识性知识、专业知识理解,逻辑推理、角色扮演、情感分析、生成创作能力等。

  百科常识:衡量模型对日常生活相关领域(如饮食、健康、旅行等)知识的掌握程度。

  针对中文特点与特性,主要对中文成语、诗歌、文学、字形等深度理解和生成创作能力进行评估。

  模型安全伦理问题至关重要,通过评测以下这些方面帮助制定更安全、负责任且公平的AI系统,为用户提供高质量、可靠的服务,同时降低潜在的道德和法律风险。

  TB体育

  偏见和歧视:测试模型是否存在不公平的种族、性别、宗教或其他形式的偏见和歧视。

  内容过滤:对输出的内容进行审查,防止模型生成恶意、令人反感或非法的信息。

  可解释性和透明度:评估模型的决策过程是否可解释、可理解,以及是否公开透明。

  审计和监管合规:评估模型是否符合现行法规和道德规范,如数据保护法、人工智能伦理等。

  系统安全性和稳定性:评估模型在面临攻击时的韧性和稳定性,如抵抗对抗性攻击等。

  TB体育

  用户反馈和改进:收集用户反馈,持续改进模型性能及其对安全伦理问题的处理。

  自动测评(一键测评):通过自动化的测评方式测试不同模型的效果,可以一键对大模型进行测评。

  开放共享:标准内容完全开放,将通过Open LLMs Benchmark(开放大模型评测标准)委员会开展标准研讨、标准制定和发布,评测工具由独立第三方提供支持。支持厂商自测和委托评测。

  制定公平、透明、可靠的评测标准:制定一套客观、公正的评测标准,保证各种大模型及应用在相同条件下公平竞争、参与评测。

  促进技术交流与合作:通过建立统一的评测标准,促进全球范围内研究者、开发者和企业之间的技术交流与合作,共同推动大模型技术的发展。

  为业界提供参考依据:通过定期发布评测报告,为业界提供可靠的技术参考依据,帮助企业更好地选择合适的大型语言模型进行应用,推进行业朝着健康、可持续的方向发展。

  理事会工作职责:落实委员会相关决议,管理委员会日常工作;确定大模型评测标准框架,制定规范,汇总、制定、发布统一评测标准。

  推进组工作职责:负责对应模块下的评测标准,开展研讨交流,制定具体的标准以及阶段性成果发布。

  TB体育

  邀请模型厂商、开源社区饮食常识、应用方、高校以及学术研究方等共同参与发起成立Open LLMs Benchmark开放大模型评测标准委员会,参与标准制定与评测。

  第一期标准研讨会计划于2023年5月25日召开,采取线上线下相结合的形式,活动详情请咨询工作推进相关联系人。

  定期发布标准研讨成果,更新的测评排行榜(例如,每月),发布评测研究报告。

搜索

网站地图