語系:
繁體中文
English
說明(常見問題)
登入
回首頁
切換:
標籤
|
MARC模式
|
ISBD
Verbesserung von Klassifikationsverf...
~
SpringerLink (Online service)
Verbesserung von Klassifikationsverfahren = Informationsgehalt der k-Nächsten-Nachbarn nutzen /
紀錄類型:
書目-語言資料,印刷品 : Monograph/item
正題名/作者:
Verbesserung von Klassifikationsverfahren/ von Dominik Koch.
其他題名:
Informationsgehalt der k-Nächsten-Nachbarn nutzen /
作者:
Koch, Dominik.
面頁冊數:
XXII, 224 S. 278 Abb.online resource. :
Contained By:
Springer Nature eBook
標題:
Statistics . -
電子資源:
https://doi.org/10.1007/978-3-658-11476-3
ISBN:
9783658114763
Verbesserung von Klassifikationsverfahren = Informationsgehalt der k-Nächsten-Nachbarn nutzen /
Koch, Dominik.
Verbesserung von Klassifikationsverfahren
Informationsgehalt der k-Nächsten-Nachbarn nutzen /[electronic resource] :von Dominik Koch. - 1st ed. 2016. - XXII, 224 S. 278 Abb.online resource. - BestMasters,2625-3577. - BestMasters,.
Grundlagen der k-Nächsten-Nachbarn -- Vorstellung der zu erweiternden Klassifikationsverfahren -- Benchmarking anhand von simulierten Daten.- Anwendung der modifizierten Verfahren auf reale Datensätze.
Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt. Der Inhalt n Grundlagen der k-Nächsten-Nachbarn n Vorstellung der zu erweiternden Klassifikationsverfahren n Benchmarking anhand von simulierten Daten n Anwendung der modifizierten Verfahren auf reale Datensätze Die Zielgruppen · Dozierende und Studierende der Mathematik, insbesondere der Statistik Der Autor Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit ar beitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.
ISBN: 9783658114763
Standard No.: 10.1007/978-3-658-11476-3doiSubjects--Topical Terms:
1253516
Statistics .
LC Class. No.: QA276-280
Dewey Class. No.: 519.5
Verbesserung von Klassifikationsverfahren = Informationsgehalt der k-Nächsten-Nachbarn nutzen /
LDR
:02983nam a22003615i 4500
001
977220
003
DE-He213
005
20200712202437.0
007
cr nn 008mamaa
008
201211s2016 gw | s |||| 0|ger d
020
$a
9783658114763
$9
978-3-658-11476-3
024
7
$a
10.1007/978-3-658-11476-3
$2
doi
035
$a
978-3-658-11476-3
050
4
$a
QA276-280
072
7
$a
PBT
$2
bicssc
072
7
$a
MAT029000
$2
bisacsh
072
7
$a
PBT
$2
thema
082
0 4
$a
519.5
$2
23
100
1
$a
Koch, Dominik.
$e
author.
$4
aut
$4
http://id.loc.gov/vocabulary/relators/aut
$3
1271000
245
1 0
$a
Verbesserung von Klassifikationsverfahren
$h
[electronic resource] :
$b
Informationsgehalt der k-Nächsten-Nachbarn nutzen /
$c
von Dominik Koch.
250
$a
1st ed. 2016.
264
1
$a
Wiesbaden :
$b
Springer Fachmedien Wiesbaden :
$b
Imprint: Springer Spektrum,
$c
2016.
300
$a
XXII, 224 S. 278 Abb.
$b
online resource.
336
$a
text
$b
txt
$2
rdacontent
337
$a
computer
$b
c
$2
rdamedia
338
$a
online resource
$b
cr
$2
rdacarrier
347
$a
text file
$b
PDF
$2
rda
490
1
$a
BestMasters,
$x
2625-3577
505
0
$a
Grundlagen der k-Nächsten-Nachbarn -- Vorstellung der zu erweiternden Klassifikationsverfahren -- Benchmarking anhand von simulierten Daten.- Anwendung der modifizierten Verfahren auf reale Datensätze.
520
$a
Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt. Der Inhalt n Grundlagen der k-Nächsten-Nachbarn n Vorstellung der zu erweiternden Klassifikationsverfahren n Benchmarking anhand von simulierten Daten n Anwendung der modifizierten Verfahren auf reale Datensätze Die Zielgruppen · Dozierende und Studierende der Mathematik, insbesondere der Statistik Der Autor Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit ar beitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.
650
0
$a
Statistics .
$3
1253516
650
1 4
$a
Statistics, general.
$3
671463
710
2
$a
SpringerLink (Online service)
$3
593884
773
0
$t
Springer Nature eBook
776
0 8
$i
Printed edition:
$z
9783658114756
830
0
$a
BestMasters,
$x
2625-3577
$3
1253531
856
4 0
$u
https://doi.org/10.1007/978-3-658-11476-3
912
$a
ZDB-2-SNA
950
$a
Life Science and Basic Disciplines (German Language) (SpringerNature-11777)
筆 0 讀者評論
多媒體
評論
新增評論
分享你的心得
Export
取書館別
處理中
...
變更密碼[密碼必須為2種組合(英文和數字)及長度為10碼以上]
登入