个人主页
caroler

caroler (@Marcher)

  • 加入网站 1468
  • 连续签到 1
  • 最高连签 1
  • 累计签到 4
  • 今日阅读 0 小时 00 分钟
  • 本周阅读 0 小时 00 分钟
  • 本月阅读 0 小时 00 分钟
  • 累计阅读 2 小时 38 分钟
  • AI算法工程师手册

    作者华校专,曾任阿里巴巴资深算法工程师、智易科技首席算法研究员,现任腾讯高级研究员,《Python 大战机器学习》的作者。这是作者多年以来学习总结的笔记,经整理之后开源于世。目前还有约一半的内容在陆续整理中,已经整理好的内容放置在此。 曾有出版社约稿,但是考虑到出版时间周期较长,而且书本购买成本高不利于技术广泛传播,因此作者采取开源的形式。 笔记内容仅供个人学习使用,非本人同意不得应用于商业领域。
  • scikit-learn (sklearn) 0.21.3 官方文档中文版

    scikit-learn 是基于 Python 语言的机器学习工具,简单高效的数据挖掘和数据分析工具,可供大家在各种环境中重复使用,建立在 NumPy ,SciPy 和 matplotlib 上,开源,可商业使用 - BSD许可证
  • Keras 2.3 官方中文文档

    Keras 是一个用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果,是做好研究的关键。
  • PyTorch 自然语言处理(Natural Language Processing with PyTorch 中文版)

    本书旨在为新人提供自然语言处理(NLP)和深度学习,以涵盖这两个领域的重要主题。这两个主题领域都呈指数级增长。对于一本介绍深度学习和强调实施的NLP的书,本书占据了重要的中间地带。在写这本书时,我们不得不对哪些材料遗漏做出艰难的,有时甚至是不舒服的选择。对于初学者,我们希望本书能够为基础知识提供强有力的基础,并可以瞥见可能的内容。特别是机器学习和深度学习是一种经验学科,而不是智力科学。我们希望每章中慷慨的端到端代码示例邀请您参与这一经历。当我们开始编写本书时,我们从PyTorch 0.2开始。每个PyTorch更新从0.2到0.4修改了示例。
  • 兜哥带你NLP入门(自然语言处理入门)

    图像、文字和声音是人类接触、理解外部世界最常见的三种形式,其中文字又是最容易保存和进行交换的形式。大量的人类文明,最终都是以文字的形式保留下来的;大量的信息交换,都是是文字的形式进行。如何能让机器可以与人交流,理解人类的思想,最终能像人类一样理解文字以及文字背后的各种想法、意图呢?自然语言处理,即所谓的NLP是重要的支撑技术。
  • 机器学习训练秘籍(Machine Learning Yearning 中文版)

    本书的重点不在于教授传统的机器学习算法,而在于教你如何使机器学习算法发挥作用。一些AI的技术课程会给你一个工具,而这本书将教会你如何使用这些工具。如果你渴望成为AI的技术领导者,并想要学习如何为团队设定一个方向,本书将有所帮助。
  • 30天吃掉那只 TensorFlow2

    本书是一本对人类用户极其友善的TensorFlow2.0入门工具书,不刻意恶心读者是本书的底限要求,Don't let me think是本书的最高追求。本书主要是在参考TensorFlow官方文档和函数doc文档基础上整理写成的。但本书在篇章结构和范例选取上做了大量的优化。不同于官方文档混乱的篇章结构,既有教程又有指南,缺少整体的编排逻辑。本书按照内容难易程度、读者检索习惯和TensorFlow自身的层次结构设计内容,循序渐进,层次清晰,方便按照功能查找相应范例。
  • PyTorch 1.2 中文文档 & 教程

    PyTorch是一个开源的Python机器学习库,基于Torch,底层由C++实现,应用于人工智能领域,如自然语言处理。 它最初由Facebook的人工智能研究团队开发,并且被用于Uber的概率编程软件Pyro。 PyTorch主要有两大特征: 类似于NumPy的张量计算,可使用GPU加速.
  • 周志华《机器学习》学习笔记

    周志华《机器学习》又称西瓜书是一本较为全面的书籍,书中详细介绍了机器学习领域不同类型的算法(例如:监督学习、无监督学习、半监督学习、强化学习、集成降维、特征选择等),记录了本人在学习过程中的理解思路与扩展知识点,希望对新人阅读西瓜书有所帮助!
  • 深度学习教程整理

    HyperDL-Tutorial 是一个深度学习相关的系列文章,总结了我们在深度学习实践中的一些经验。