Fundamentals of Machine Learning : Support Vector Machines Made Easy (UTB Uni-Taschenbücher 5251) (2020. 155 S. 79 Farbabb. 266 mm)

個数:
  • ポイントキャンペーン

Fundamentals of Machine Learning : Support Vector Machines Made Easy (UTB Uni-Taschenbücher 5251) (2020. 155 S. 79 Farbabb. 266 mm)

  • ウェブストア価格 ¥6,777(本体¥6,161)
  • UTB(2020発売)
  • 外貨定価 EUR 25.90
  • クリスマスポイント2倍キャンペーン(~12/25)
  • ポイント 122pt
  • 提携先の海外書籍取次会社に在庫がございます。通常約3週間で発送いたします。
    重要ご説明事項
    1. 納期遅延や、ご入手不能となる場合が若干ございます。
    2. 複数冊ご注文の場合は、ご注文数量が揃ってからまとめて発送いたします。
    3. 美品のご指定は承りかねます。

    ●3Dセキュア導入とクレジットカードによるお支払いについて
  • ≪洋書のご注文について≫ 「海外取次在庫あり」「国内在庫僅少」および「国内仕入れ先からお取り寄せいたします」表示の商品でもクリスマス前(12/20~12/25)および年末年始までにお届けできないことがございます。あらかじめご了承ください。

  • 【入荷遅延について】
    世界情勢の影響により、海外からお取り寄せとなる洋書・洋古書の入荷が、表示している標準的な納期よりも遅延する場合がございます。
    おそれいりますが、あらかじめご了承くださいますようお願い申し上げます。
  • ◆画像の表紙や帯等は実物とは異なる場合があります。
  • ◆ウェブストアでの洋書販売価格は、弊社店舗等での販売価格とは異なります。
    また、洋書販売価格は、ご注文確定時点での日本円価格となります。
    ご注文確定後に、同じ洋書の販売価格が変動しても、それは反映されません。
  • 製本 Paperback:紙装版/ペーパーバック版
  • 商品コード 9783825252519

Description


(Text)
Artificial intelligence will change our lives forever - both at work and in our private lives. But how exactly does machine learning work? Two professors from Lübeck explore this question. In their English textbook they teach the necessary basics for the use of Support Vector Machines, for example, by explaining linear programming, the Lagrange multiplier, kernels and the SMO algorithm. They also deal with neural networks, evolutionary algorithms and Bayesian networks.Definitions are highlighted in the book and tasks invite readers to actively participate. The textbook is aimed at students of computer science, engineering and natural sciences, especially in the fields of robotics, artificial intelligence and mathematics.
(Short description)
Künstliche Intelligenz begreifen

Künstliche Intelligenz wird unser Leben nachhaltig verändern - sowohl im Job als auch im Privaten. Doch wie funktioniert maschinelles Lernen eigentlich genau? Dieser Frage gehen die Autoren in ihrem englischsprachigen Lehrbuch nach. Sie vermitteln die notwendigen Grundlagen für den Einsatz von Support Vector Machines beispielsweise durch die lineare Programmierung, den Lagrange-Multiplikator, Kernels und den SMO-Algorithmus. Auch auf Neuronale Netze, evolutionäre Algorithmen und Bayessche Netze gehen sie ein. Definitionen sind im Buch hervorgehoben und Aufgaben laden die LeserInnen zum Mitdenken ein. Das Lehrbuch richtet sich an Studierende der Informatik, Technik und Naturwissenschaften, insbesondere aus den Bereichen Robotik, Artificial Intelligence und Mathematik.
(Table of content)
ContentsPreface1 Symbolic Classification and Nearest Neighbour Classification1.1 Symbolic Classification1.2 Nearest Neighbour Classification2 Separating Planes and Linear Programming2.1 Finding a Separating Hyperplane2.2 Testing for feasibility of linear constraints2.3 Linear ProgrammingMATLAB example2.4 Conclusion3 Separating Margins and Quadratic Programming3.1 Quadratic Programming3.2 Maximum Margin Separator Planes3.3 Slack Variables4 Dualization and Support Vectors4.1 Duals of Linear Programs4.2 Duals of Quadratic Programs4.3 Support Vectors5 Lagrange Multipliers and Duality5.1 Multidimensional functions5.2 Support Vector Expansion5.3 Support Vector Expansion with Slack Variables6 Kernel Functions6.1 Feature Spaces6.2 Feature Spaces and Quadratic Programming6.3 Kernel Matrix and Mercer's Theorem6.4 Proof of Mercer's TheoremStep 1 - Definitions and PrerequisitesStep 2 - Designing the right Hilbert SpaceStep 3 - The reproducing property7 The SMO Algorithm7.1 Overview and Principles7.2 Optimisation Step7.3 Simplified SMO8 Regression8.1 Slack Variables8.2 Duality, Kernels and Regression8.3 Deriving the Dual form of the QP for Regression9 Perceptrons, Neural Networks and Genetic Algorithms9.1 PerceptronsPerceptron-AlgorithmPerceptron-Lemma and ConvergencePerceptrons and Linear Feasibility Testing9.2 Neural NetworksForward PropagationTraining and Error Backpropagation9.3 Genetic Algorithms9.4 Conclusion10 Bayesian Regression10.1 Bayesian Learning10.2 Probabilistic Linear Regression10.3 Gaussian Process Models10.4 GP model with measurement noiseOptimization of hyperparametersCovariance functions10.5 Multi-Task Gaussian Process (MTGP) Models11 Bayesian NetworksPropagation of probabilities in causal networksAppendix - Linear ProgrammingA.1 Solving LP0 problemsA.2 Schematic representation of the iteration stepsA.3 Transition from LP0 to LPA.4 Computing time and complexity issuesReferencesIndex
(Author portrait)
Prof. Dr. Floris Ernst lehrt KI (Künstliche Intelligenz) und Robotik an der Universität Lübeck.

最近チェックした商品