Метода потпорних вектора
У машинском учењу, метода потпорних вектора је модел учења под надзором са припадајућим алгоритмима учења који анализирају податке за класификацију и регресиону анализу . Развио ју је Владимир Вапник са колегама у AT&T Bell Лабораторијама. Метода потпорних вектора је једна од најпоузданијих метода предвиђања, заснована на статистичким оквирима учења или VC теорији коју су предложили Вапник (1982, 1995) и Червонинкс (1974). Имајући у виду скуп примера за обуку, од којих је сваки означен као да припада једној од две категорије, МПВ алгоритам за обуку гради модел који додељује нове примере једној или другој категорији, чинећи га ненагађајућим бинарним линеарним класификатором . МПВ пресликава примере обуке на тачке у простору како би максимизирао ширину јаза између две категорије. Нови примери се затим мапирају у исти простор и предвиђају да припадају категорији на основу које стране јаза падају.
Поред извођења линеарне класификације, МПВ-ови могу ефикасно да изврше нелинеарну класификацију користећи оно што се назива трик језгра, имплицитно мапирајући своје улазе у просторе карактеристика високе димензије.
Када подаци нису означени, надгледано учење није могуће и потребан је приступ учењу без надзора, који покушава да пронађе природно груписање података у групе, а затим мапира нове податке у ове формиране групе. Алгоритам за груписање потпорних вектора [1], који су креирали Хава Сигелман и Владимир Вапник, примењује статистику вектора подршке, развијену у алгоритму мотоде поджаних вектора, за категоризацију неозначених података, и један је од најчешће коришћених алгоритама за груписање у инустријској апликацији.[тражи се извор]
Мотивација
уредиКласификација података је уобичајен задатак у машинском учењу . Претпоставимо да свака дата тачка припада једној од две класе, а циљ је да се одлучи у којој ће класи бити нова тачка података . У случају методе потпорних вектора, тачка података се посматра као -димензионални вектор (листа бројева), и желимо да знамо да ли можемо да одвојимо такве тачке са а -димензионалном хиперравни . Ово се зове линеарни класификатор . Постоји много хиперравни које могу класификовати податке. Разуман избор као најбоља хиперравна је она који постиже највеће раздвајање, или маргину, између две класе. Зато бирамо хиперраван тако да је растојање од ње до најближе тачке података на свакој страни максимизирано. Ако таква хиперраван постоји, позната је као хиперраван максималне маргине, а линеарни класификатор који он дефинише је познат као класификатор максималне маргине; или еквивалентно, перцептрон оптималне стабилности .[тражи се извор]
Дефиниција
уредиМодел потпорних векотра конструише хиперраван или скуп хиперравни у високо- или бесконачно-димензионалном простору, који се може користити за класификацију, регресију или друге задатке као што је откривање одступања. [2] Добро раздвајање се постиже хиперравнином која има највећу удаљеност до најближе тачке података за обуку било које класе (функционална маргина), пошто генерално што је већа маргина, то је мања грешка генерализације класификатора. [3]
Док се оригинални проблем може навести у коначнодимензионалном простору, често се дешава да скупови дискриминанти нису линеарно одвојиви у том простору. Из тог разлога, предложено је [4] да се оригинални коначно-димензионални простор преслика у простор много веће димензије, што вероватно олакшава раздвајање у том простору. Да би рачунарско оптерећење било разумно, мапирања које користе МПВ шеме су дизајниране да обезбеде да се тачкасти производи парова вектора улазних података могу лако израчунати у смислу променљивих у оригиналном простору, дефинисањем у смислу функције језгра одабрано да одговара проблему. [5] Хиперравне у вишедимензионалном простору су дефинисане као скуп тачака чији је тачкасти производ са вектором у том простору константан, при чему је такав скуп вектора ортогоналан (а тиме и минималан скуп вектора који дефинише хиперраван. Вектори који дефинишу хиперравне могу се изабрати да буду линеарне комбинације са параметрима слике вектора обележја који се јављају у бази података. Са овим избором хиперравнине, тачке у простору обележја који су пресликани у хиперравнину дефинисани су релацијом Имајте на уму да ако постаје мали као расте даље од , сваки члан у збиру мери степен блискости испитане тачке до одговарајуће тачке базе података . На овај начин, збир горњих језгара може да се користи за мерење релативне близине сваке испитне тачке тачкама података које потичу из једног или другог скупа који се дискриминише. Обратите пажњу на чињеницу да је скуп тачака пресликан у било коју хиперравнину може бити прилично замршен као резултат, омогућавајући много сложенију дискриминацију између скупова који уопште нису конвексни у оригиналном простору.
Апликације
уредиМетоде потпорних векотра се могу користити за решавање различитих проблема из стварног света:
- Методе потпорних векотра су корисне у категоризацији текста и хипертекста, јер њихова примена може значајно смањити потребу за означеним инстанцама обуке и у стандардним индуктивним и трансдуктивним поставкама. [6] Неке методе за плитко семантичко рашчлањивање засноване су на методама потпорних векотра. [7]
- Класификација слика се такође може извршити помоћу МПВ-а. Експериментални резултати показују да МПВ постижу знатно већу тачност претраге од традиционалних шема за прецизирање упита након само три до четири круга повратних информација о релевантности. Ово важи и за системе за сегментацију слика, укључујући и оне који користе модификовану верзију МПВ-а која користи привилеговани приступ како је предложио Вапник. [8] [9]
- Класификација сателитских података као што су SAR подаци коришћењем надгледаног МПВ. [10]
- Руком писани знакови се могу препознати помоћу МПВ. [11] [12]
- Алгоритам МПВ има широку примену у биологијо и другим наукама. Коришћени су за класификацију протеина са до 90% исправно класификованих једињења. Пермутациони тестови засновани на МПВ тежинама су предложени као механизам за интерпретацију МПВ модела. [13] [14] Методе потпорних векотра су такође коришћене за тумачење МПВ модела у прошлости. [15] Постхок интерпретација модела потпорних вектора у циљу идентификације карактеристика које модел користи за предвиђање је релативно нова област истраживања од посебног значаја у биолошким наукама.
Историја
уредиОригинални МПВ алгоритам су измислили Владимир Н. Вапник и Алексеј Ја. Червонинкс 1963. године. Године 1992. Бернхард Босер, Изабела Гујон и Владимир Вапник су предложили начин да се створе нелинеарни класификатори применом трика језгра да би се добиле максималне маргине хиперравни. [4] Инкарнацију „меке маргине“, као што се уобичајено користе софтверски пакети, предложили су Корина Кортес и Вапник 1993. године и објављени 1995. године [16]
Линеарна МПВ
уредиИмамо скуп података за обуку од тачке форме
где су или 1 или −1, од којих сваки указује на класу до које је тачка припада. Сваки је -димензионални реални вектор. Желимо да пронађемо "хиперраван максималне маргине" која дели групу тачака за које из групе бодова за које , који је дефинисан тако да растојање између хиперравни и најближе тачке из било које групе буде максимизиран.
Било која хиперраван се може написати као скуп тачака уколико испуњава:
где је (не нужно нормализован) вектор нормале на хиперраван. Ово је слично Хесеновом нормалном облику, осим тога није нужно јединични вектор. Параметар одређује помак хиперравни од почетка дуж вектора нормале .
Тврда маргина
уредиАко су тренинг подаци линеарно раздвојиви, можемо изабрати две паралелне хиперравне које раздвајају две класе података, тако да је растојање између њих што је могуће веће. Подручје ограничено са ове две хиперравне назива се „маргина“, а хиперраван максималне маргине је хиперраван која се налази на пола пута између њих. Са нормализованим или стандардизованим скупом података, ове хиперравне се могу описати слдећим једначинама:
- (све на или изнад ове границе припрада једној класи, са ознаком 1)
и
- (све на или испод ове границе припада другој класи, са ознаком −1).
Геометријски, растојање између ове две хиперравне је , [17] тако да би максимизовали растојање између равни које желимо да минимизирамо . Растојање се израчунава коришћењем једначине удаљености тачке од равни . Такође морамо да спречимо да тачке података падну на маргину, додајемо следеће ограничење: за сваку било
- , ако је ,
или
- , ако је .
Ови услови наводе да свака тачка података мора лежати на исправној страни маргине.
Ово се може написати и као:
Можемо да саставимо све ово и добијемо проблем оптимизације:
- „Минимизуј на за ."
и који решавају овај проблем одређују наш класификатор, где је функција знака .
Важна последица овог геометријског описа је да је хиперраван максималне маргине потпуно одређена векотром који му је најближи. Ови називају се вектори подршке .
Мека маргина
уредиЗа проширење МПВ на случајеве у којима подаци нису линеарно одвојиви, функција губитка зглоба је од помоћи
Напоменути да је i-ти циљ (то јест, у овом случају је 1 или −1), и је i-ти излаз.
Ова функција је нула ако је услов из (1) задовољен, другим речима, ако лежи на исправној страни маргине. За податке на погрешној страни маргине, вредност функције је пропорционална удаљености од тачке од маргине.
Циљ оптимизације је да се минимизује
где је параметар одређује компромис између повећања величине маргине и обезбеђивања да леже на исправној страни маргине. Дакле, за довољно мале вредности од , понашаће се слично МПВ-а са тврдом маргином, ако се улазни подаци линеарно класификују, али ће и даље научити да ли је правило класификације одрживо или не. (Овај параметар се такође назива Ц, нпр. у <a href="https://en.wiki.x.io/wiki/LIBSVM" rel="mw:ExtLink" title="LIBSVM" class="cx-link" data-linkid="534">LIBSVM</a> . )
Нелинеарна класификација
уредиОригинални алгоритам максималне маргине хиперавни који је предложио Вапник 1963. године конструисао је линеарни класификатор . Међутим, 1992. године, Бернхард Босер, Изабел Гујон и Владимир Вапник су предложили начин за креирање нелинеарних класификатора применом трика језгра (првобитно предложен од Аизермана [18] ) за максималне маргине хиперравни. [4] Добијени алгоритам је формално сличан, осим што је сваки тачкасти производ замењен нелинеарном функцијом језгра. Ово омогућава алгоритму да уклопи хиперраван максималне маргине у трансформисани простор обележја. Трансформација може бити нелинеарна, а трансформисани простор вишедимензионалан; иако је класификатор хиперравна у трансформисаном простору обележја, он може бити нелинеаран у оригиналном улазном простору.
Важно је напоменути да рад у вишедимензионалном простору карактеристика повећава грешку генерализације методе потпорних вектора, уколико има довољно тренинг узорака алгоритам ће и даље ради добро.
Нека уобичајена језгра укључују:
- Полином (хомоген) : .
- Полином (нехомоген): .
- Гаусова радијална базна функција : за . Понекад се параметризују коришћењем .
- Хиперболички тангент : за неке (не за све) и .
Језгро је повезано са трансформацијом по једначини . Вредност W је такође у трансформисаном простору, са . Тачкасти производи са w за класификацију се поново могу израчунати помоћу трика језгра, тј .
Израчунавање класификатора МПВ
уредиИзрачунавање (меке маргине) класификатора МПВ доводи до минимизирања израза форме
Фокусирамо се на класификатор меке маргине пошто, као што је горе наведено, одабир довољно мале вредности за даје класификатор тврде маргине за линеарно класификујуће улазне податке. Класични приступ, који укључује свођење (2) на проблем квадратног програмирања, детаљно је описан у наставку. Затим ће се расправљати о новијим приступима као што су суб-градијентални спуст и координатни спуст.
Примал
уредиМинимизовање израза (2) се може написати као проблем ограничене оптимизације са диференцијабилном циљном функцијом овако:
За сваки уводимо променљиву . Напоменути да је најмањи ненегативни број који задовољава(испуњава)
Стога можемо преписати проблем оптимизације на следећи начин
Ово се зове примарни проблем.
Дуал
уредиРешавањем Лагранжовог дуала горњег проблема добија се упрошћени проблем
Ово се зове дуални проблем. Пошто је проблем двоструке максимизације квадратна функција од а подлеже линеарним ограничењима, ефикасно се решава помоћу алгоритама квадратног програмирања.
Овде, променљиве дефинисане су тако да
- .
Штавише, тачно када лежи на исправној страни маргине, и када лежи на граници маргине. Следи да се може написати као линеарна комбинација потпорних векотра.
Офсет, , може се повратити проналажењем на граници маргине и решавањем:
(Напоменути да је јер је . )
Трик језгра
уредиПретпоставимо сада да бисмо желели да научимо правило нелинеарне класификације које одговара правилу линеарне класификације за трансформисане тачке података Штавише, дата нам је функција језгра која задовољава .
Познато нам је да вектор класификације у трансформисаном простору задовољава
где се добија се решавањем задатка оптимизације
Коефицијенти се могу решити коришћењем квадратног програмирања, као и раније. Опет, можемо пронаћи неки индекс тако да , тако да лежи на граници маргине у трансформисаном простору, а затим можемо решити
коначно,
Савремене методе
уредиНајновији алгоритми за проналажење класификатора МПВ укључују суб-градијентни спус и координатни спуст. Обе технике показале су се да нуде значајне предности у односу на традиционални приступ када се ради са великим, ретким скуповима података — методе суб-градијента су посебно ефикасне када постоји много примера за обуку и координисани спуст када је димензија простора обележја велика.
Суб-градијенти спуст
уредиСуб-градијентни спуст алгоритам за МПВ ради директно са изразом
Напоменути да је конвексна функција од и . Као такав, традиционални градијенти спуст (или СГС) се може прилагодити, где уместо узимања корака у правцу функције градијента, корак се узима у правцу вектора изабраног из функције суб-градијента . Овај приступ има предност у томе што се, за одређене имплементације, број итерација не повећава са , број тачака података. [19]
Координатни спуст
уредиАлгоритми координатног спуста за МПВ раде из дуалног проблема
За свако , итеративно, коефицијент је подешен у правцу . Затим, резултујући вектор коефицијената пројектује се на најближи вектор коефицијената који задовољава дате услове. (Обично се користе еуклидске удаљености. ) Процес се затим понавља све док се не добије скоро оптималан вектор коефицијената. Добијени алгоритам је изузетно брз у пракси, иако је мало гаранција перформанси доказано. [20]
Емпиријска минимизација ризика
уредиГоре описана мотода потпорних векотра меке маргине је пример емпиријског алгоритма за смањење ризика (ЕРМ) за губитак зглоба . Гледано на овај начин, метода потпорних векотра припадају природној класи алгоритама за статистичко закључивање, а многе од његових јединствених карактеристика су последица понашања губитка зглоба. Ова перспектива може пружити даљи увид у то како и зашто МПВ функционишу и омогућити нам да боље анализирамо њихова статистичка својства.
Минимизација ризика
уредиУ надгледаном учењу, даје се тренинг скуп примера са лабелама , и желимо да предвидимо за дато . Да би се то урадило, формира се хипотеза, , тако да је "добра" апроксимација за . "Добра" апроксимација се обично дефинише уз помоћ функције губитка, , што карактерише колико је лоше као предвиђање за . Затим бисмо желели да изаберемо хипотезу која минимизира очекивани ризик :
У већини случајева не знамо заједничку расподелу директно. У овим случајевима, уобичајена стратегија је да се изабере хипотеза која минимизује емпиријски ризик:
Под одређеним претпоставкама о редоследу случајних променљивих (на пример, да су генерисани коначним Марковљевим процесом), ако је скуп хипотеза које се разматрају довољно мали, минимизатор емпиријског ризика ће се блиско приближити минимизатору очекиваног ризика како постаје велико. Овај приступ се назива емпиријска минимизација ризика или ЕРМ.
Регуларизација и стабилност
уредиДа би проблем минимизације имао добро дефинисано решење, морамо да поставимо нека ограничења на скуп хипотеза које се разматрају. Ако је нормирани простор (као што је случај са МПВ), посебно ефикасна техника је разматрање само тих хипотеза за које . Ово је једнако изрицању казне регуларизације , и решавање новог проблема оптимизације
Овај приступ се назива Тихоновска регуларизација .
може бити нека мера сложености хипотезе , тако да предност добијају једноставније хипотезе.
МПВ и губитак зглоба
уредиПодсетимо се да је МПВ класификатор (меке маргине) изабран да минимизује следећи израз:
Видимо да је техника МПВ еквивалентна емпиријској минимизацији ризика са Тихоновом регуларизацијом, где је у овом случају функција губитка губитак зглоба.
Из ове перспективе, МПВ је уско повезана са другим основним класификационим алгоритмима као што су регуларизовани најмањи квадрати и логистичка регресија . Разлика између ова три алгоритма лежи у избору функције губитка: регуларизовани најмањи квадрати представљају емпиријску минимизацију ризика са квадратним губитком, ; логистичка регресија користи лог-губитак,
Циљне функције
уредиРазлика између губитка зглоба и ових других функција губитка најбоље се може изразити у смислу циљних функција – функција која минимизира очекивани ризик за дати пар случајних прмонељивих .
Конкретно, нека означава условљено догађајем који даје . У поставци класификације имамо:
Дакле, оптимални класификатор је:
За квадратни губитак, циљна функција је функција условног очекивања, ; За логистички губитак, то је logit функција, . Док обе ове циљне функције дају исправан класификатор, као , оне нам дају више информација него што нам је потребно. У ствари, оне нам дају довољно информација да у потпуности опишемо расподелу по .
С друге стране, може се проверити да ли је циљна функција за губитак зглоба тачна . Дакле, у довољно богатом простору хипотеза — или еквивалентно, за одговарајуће одабрано језгро — МПВ класификатор ће конвергирати најједноставнијој функцији (у смислу ) који исправно класификује податке. Ово проширује геометријску интерпретацију МПВ-а – за линеарну класификацију, емпиријски ризик је минимизиран било којом функцијом чије маргине леже између вектора подршке, а најједноставнији од њих је класификатор максималне маргине. [21]
Својства
уредиМПВ припадају породици генерализованих линеарних класификатора и могу се тумачити као проширење перцептрона . Они се такође могу сматрати посебним случајем Тихоновске регуларизације . Посебно својство је да они истовремено минимизирају грешку емпиријске класификације и максимизирају геометријску маргину ; стога су познати и као класификатори максималне маргине.
Поређење МПВ-а са другим класификаторима су направили Меиер, Леисцх и Хорник. [22]
Избор параметара
уредиЕфикасност МПВ-а зависи од избора језгра, параметара језгра и параметра меке маргине . Уобичајени избор је Гаусово језгро, које има један параметар . Најбоља комбинација од и се често бира претрагом мреже са експоненцијално растућим секвенцама од и , на пример, ; . Обично се свака комбинација избора параметара проверава коришћењем унакрсне валидације и бирају се параметри са најбољом тачношћу унакрсне провере. Алтернативно, недавни рад у Бајесовој оптимизацији се може користити за одабир и , што често захтева процену много мањег броја комбинација параметара од претраживања мреже. Коначни модел, који се користи за тестирање и класификацију нових података, се затим обучава на целом скупу за обуку користећи изабране параметре.
Проблеми
уредиПотенцијални недостаци МПВ-а укључују следеће аспекте:
- Захтева потпуно означавање улазних података
- Некалибриране вероватноће чланства у класама — МПВ произилази из Вапникове теорије која избегава процену вероватноће на коначним подацима
- МПВ је директно применљива само за двокласне задатке. Стога се морају применити алгоритми који своде задатак више класа на неколико бинарних проблема.
- Параметре решеног модела је тешко интерпретирати.
Надоградње
уредиМетода груписања потпорних вектора
уредиМетода груписања потпорних вектора је сличана метода која се такође заснива на функцијама језгра, али је прикладаан за учење без надзора. Сматра се фундаменталном методом у науци о подацима .[тражи се извор]
Метода потпорних векотра са више класа
уредиМултикласна МПВ има за циљ да додели ознаке инстанцама коришћењем методе потпорних векотра, где су ознаке извучене из коначног скупа неколико елемената.
Доминантан приступ за то је свођење једног проблема више класа на вишеструке проблеме бинарне класификације. [23] Уобичајене методе за такву оптимизацију укључују: [23] [24]
- Прављење бинарних класификатора који праве разлику између једне од ознака и остатка ( један против свих ) или између сваког пара класа ( један против једаног ). Класификација нових инстанци за случај један наспрам свих врши се стратегијом победник узима све, у којој класификатор са највећом излазном функцијом додељује класу (важно је да излазне функције буду калибрисане да би произвеле упоредиве резултате ). За приступ један против један, класификација се врши стратегијом гласања са максималним бројем победа, у којој сваки класификатор додељује инстанцу једној од две класе, затим се глас за додељену класу повећава за један глас, и на крају класа са највише гласова одређује класификацију инстанце.
- Усмерени ациклични граф МПВ (DAGSVM) [25]
- Исправљање излазних кодова [26]
Крамер и Сингер су предложили вишекласну МПВ који баца проблем вишекласне класификације у један проблем оптимизације, уместо да га декомпонује на вишеструке проблеме бинарне класификације. [27] Види такође Ли, Лин и Ваба [28] [29] и Ван ден Бург и Гроенен. [30]
Трансдуктивна метода потпорних векотра
уредиТрансдуктивна метода потпорних векотра прошире МПВ тако што могу да третирају и делимично обележене податке у полунадгледаном учењу пратећи принципе трансдукције . Овде, поред комплета за обуку , ученику се такође даје сет
тест примера које треба класификовати. Формално, трансдуктивна метода потпорних вектора је дефинисана следећим примарним проблемом оптимизације: [31]
Минимизовати (у )
подлеже (за било које и било које )
и
Трансдуктивне методе потпорних вектора је представио Владимир Н. Вапник 1998. године.
Структурирана МПВ
уредиМПВ су генерализоване на структуриране МПВ, где је простор за ознаке структуриран и вероватно бесконачне величине.
Регресија
уредиВерзију МПВ за регресију предложили су 1996. Владимир Н. Вапник, Харис Дракер, Кристофер Џеј Си Берџес, Линда Кауфман и Александар Ј. Смола. [32] Овај метод се назива регресија вектора потпора. Модел произведен класификацијом вектора подршке (као што је горе описано) зависи само од подскупа података о обуци, јер функција трошкова за изградњу модела не брине о тачкама обуке које се налазе изван маргине. Аналогно томе, модел који производи СВР(support-vector regression) зависи само од подскупа података о обуци, јер функција грешке за изградњу модела игнорише све податке о обуци који су блиски предвиђању модела. Другу МПВ верзију познату као метода потпорних вектора најмањих квадрата (LS-SVM) су предложили Суикенс и Вандевалле. [33]
Обука оригиналног СВР-а значи решавање [34]
- минимизирати
- за
где је узорак за обуку са циљном вредношћу . Унутрашњи производ плус пресретање је предвиђање за тај узорак, и је слободан параметар који служи као праг: сва предвиђања морају бити унутар распона истинитих предвиђања. "Лабаве" променљиве се обично додају у горе наведеном да би се омогућиле грешке и омогућила апроксимација у случају да је горњи проблем неизводљив.
Бајесова МПВ
уредиПолсон и Скот су 2011. показали да МПВ прихвата Бајесову интерпретацију кроз технику повећања података . [35] У овом приступу МПВ се посматра као графички модел (где су параметри повезани преко расподеле вероватноће). Овај детаљни преглед омогућава примену Бајесове технике на МПВ, као што је флексибилана функција моделирања, аутоматско хиперпараметерско подешавање, и предвидљиву несигурну квантификацију . „Недавно је Флоријан”. arXiv:search/stat?searchtype=author&query=Wenzel%2C+F Проверите вредност параметра |arxiv=
(помоћ). Венцел развио скалабилну верзију Бајесовое МПВ, омогућавајући примену Бајесовое МПВ на велике податке . [36] Флориан Вензел је развио две различите верзије, шему варијационог закључивања (VI) за Бајесов модел потпорних вектора са језгром (SVM) и стохастичку верзију (SVI) за линеарни Бајесов МПВ. [37]
Имплементација
уредиПараметри хиперравни максималне маргине су изведени решавањем оптимизације. Постоји неколико специјализованих алгоритама за брзо решавање проблема квадратног програмирања (КП) који произилази из МПВ, углавном се ослањајући на хеуристику за разбијање проблема на мање делове којима је лакше управљати.
Други приступ је коришћење методе унутрашње тачке која користи итерације сличне Њутновој методи да би се пронашло решење Каруш–Кун–Такерових услова примарног и дуалног проблема. [38] Уместо решавања низа рашчлањених проблема, овај приступ директно решава проблем у целини. Да би се избегло решавање линеарног система који укључује велику матрицу језгра, апроксимација ниског ранга матрици се често користи у трику језгра.
Уобичајени метод је и Платоов алгоритам секвенцијалне минималне оптимизације, који разлаже проблем на 2-димензионалне подпроблеме који се решавају аналитички, елиминишући потребу за нумеричким алгоритмом оптимизације и складиштењем матрице. Овај алгоритам је концептуално једноставан, лак за имплементацију, генерално бржи и има боља својства скалирања за тешке МПВ проблеме.
Посебан случај линераних МПВ може се ефикасније решити истом врстом алгоритама који се користе за оптимизацију његовог блиског рођака, логистичке регресије ; ова класа алгоритама укључује суб-градијенти спуст (нпр. PEGASOS) и координатни спуст (нпр. LIBLINEAR[39] ). LIBLINEAR има импресивна времена обуке. Свака итерација конвергенције траје линеарно у времену потребном за читање тренинг података, а итерације такође имају својство Q-линеарне конвергенције, што алгоритам чини изузетно брзим.
Општа МПВ језгра се такође могу ефикасније решити коришћењем суб-градијентног спуста (нпр P-packSVM ), посебно када је паралелизација дозвољена.
МПВ језгра су доступна у многим комплетима алата за машинско учење, укључујући <a href="https://en.wiki.x.io/wiki/LIBSVM" rel="mw:ExtLink" title="LIBSVM" class="cx-link" data-linkid="815">LIBSVM</a>, MATLAB, SAS, СВМлигхт, kernlab, <a href="https://en.wiki.x.io/wiki/Scikit-learn" rel="mw:ExtLink" title="Scikit-learn" class="cx-link" data-linkid="817">scikit-learn</a>-, <a href="https://en.wiki.x.io/wiki/Shogun_(toolbox)" rel="mw:ExtLink" title="Shogun (toolbox)" class="cx-link" data-linkid="818">Shogun</a>, <a href="https://en.wiki.x.io/wiki/Weka_(machine_learning)" rel="mw:ExtLink" title="Weka (machine learning)" class="cx-link" data-linkid="819">Weka</a>, Shark, JKernelMachines, OpenCV и друге.
Препоручује се претходна обрада података (стандардизација) да би се побољшала тачност класификације. [40] Постоји неколико метода стандардизације, као што су мин-макс, нормализација децималним скалирањем, Z-score. [41] Одузимање средње вредности и дељење варијансом сваке карактеристике се обично користи за М. [42]
Референце
уреди- ^ Ben-Hur, Asa; Horn, David; Siegelmann, Hava; Vapnik, Vladimir N. „"Support vector clustering" (2001);”. Journal of Machine Learning Research. 2: 125—137.
- ^ „1.4. Support Vector Machines — scikit-learn 0.20.2 documentation”. Архивирано из оригинала 2017-11-08. г. Приступљено 2017-11-08.
- ^ Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome (2008). The Elements of Statistical Learning : Data Mining, Inference, and Prediction (PDF) (Second изд.). New York: Springer. стр. 134.
- ^ а б в Boser, Bernhard E.; Guyon, Isabelle M.; Vapnik, Vladimir N. (1992). „A training algorithm for optimal margin classifiers”. Proceedings of the fifth annual workshop on Computational learning theory – COLT '92. стр. 144. CiteSeerX 10.1.1.21.3818 . ISBN 978-0897914970. doi:10.1145/130385.130401.
- ^ Press, William H.; Teukolsky, Saul A.; Vetterling, William T.; Flannery, Brian P. (2007). „Section 16.5. Support Vector Machines”. Numerical Recipes: The Art of Scientific Computing (3rd изд.). New York: Cambridge University Press. ISBN 978-0-521-88068-8. Архивирано из оригинала 2011-08-11. г.
- ^ Joachims, Thorsten (1998). „Text categorization with Support Vector Machines: Learning with many relevant features”. Machine Learning: ECML-98. Lecture Notes in Computer Science (на језику: енглески). Springer. 1398: 137—142. ISBN 978-3-540-64417-0. doi:10.1007/BFb0026683 .
- ^ Pradhan, Sameer S., et al. "Shallow semantic parsing using support vector machines." Proceedings of the Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics: HLT-NAACL 2004. 2004.
- ^ Vapnik, Vladimir N.: Invited Speaker. IPMU Information Processing and Management 2014).
- ^ Barghout, Lauren. "Spatial-Taxon Information Granules as Used in Iterative Fuzzy-Decision-Making for Image Segmentation". Granular Computing and Decision-Making. Springer International Publishing, 2015. 285–318.
- ^ A. Maity (2016). „Supervised Classification of RADARSAT-2 Polarimetric Data for Different Land Features”. arXiv:1608.00501 [cs.CV].
- ^ DeCoste, Dennis (2002). „Training Invariant Support Vector Machines” (PDF). Machine Learning. 46: 161—190. doi:10.1023/A:1012454411458 .
- ^ Maitra, D. S.; Bhattacharya, U.; Parui, S. K. (август 2015). „CNN based common approach to handwritten character recognition of multiple scripts”. 2015 13th International Conference on Document Analysis and Recognition (ICDAR). стр. 1021—1025. ISBN 978-1-4799-1805-8. S2CID 25739012. doi:10.1109/ICDAR.2015.7333916.
- ^ Gaonkar, Bilwaj; Davatzikos, Christos; "Analytic estimation of statistical significance maps for support vector machine based multi-variate image analysis and classification".
- ^ Cuingnet, Rémi; Rosso, Charlotte; Chupin, Marie; Lehéricy, Stéphane; Dormont, Didier; Benali, Habib; Samson, Yves; and Colliot, Olivier; "Spatial regularization of SVM for the detection of diffusion alterations associated with stroke outcome" Архивирано на сајту Wayback Machine (22. децембар 2018), Medical Image Analysis (PDF). 15 (5): 729—737. 2011 https://web.archive.org/web/20181222172844/http://www.aramislab.fr/perso/colliot/files/media2011_remi_published.pdf. Архивирано из оригинала (PDF) 22. 12. 2018. г. Приступљено 19. 11. 2021. Недостаје или је празан параметар
|title=
(помоћ). - ^ Statnikov, Alexander; Hardin, Douglas; & Aliferis, Constantin; (2006); "Using SVM weight-based methods to identify causally relevant and non-causally relevant variables", Sign, 1, 4.
- ^ Cortes, Corinna; Vapnik, Vladimir N. (1995). „Support-vector networks” (PDF). Machine Learning. 20 (3): 273—297. CiteSeerX 10.1.1.15.9362 . doi:10.1007/BF00994018.
- ^ „Why is the SVM margin equal to ”. Mathematics Stack Exchange. 30. 5. 2015.
- ^ Aizerman, Mark A.; Braverman, Emmanuel M.; Rozonoer, Lev I. (1964). „Theoretical foundations of the potential function method in pattern recognition learning”. Automation and Remote Control. 25: 821—837.
- ^ Shalev-Shwartz, Shai; Singer, Yoram; Srebro, Nathan; Cotter, Andrew (2010-10-16). „Pegasos: primal estimated sub-gradient solver for SVM”. Mathematical Programming. 127 (1): 3—30. CiteSeerX 10.1.1.161.9629 . ISSN 0025-5610. doi:10.1007/s10107-010-0420-4.
- ^ Hsieh, Cho-Jui; Chang, Kai-Wei; Lin, Chih-Jen; Keerthi, S. Sathiya; Sundararajan, S. (2008-01-01). A Dual Coordinate Descent Method for Large-scale Linear SVM. Proceedings of the 25th International Conference on Machine Learning. ICML '08. New York, NY, USA: ACM. стр. 408—415. CiteSeerX 10.1.1.149.5594 . ISBN 978-1-60558-205-4. doi:10.1145/1390156.1390208.
- ^ Rosasco, Lorenzo; De Vito, Ernesto; Caponnetto, Andrea; Piana, Michele; Verri, Alessandro (2004-05-01). „Are Loss Functions All the Same?”. Neural Computation. 16 (5): 1063—1076. CiteSeerX 10.1.1.109.6786 . ISSN 0899-7667. PMID 15070510. doi:10.1162/089976604773135104.
- ^ Meyer, David; Leisch, Friedrich; Hornik, Kurt (септембар 2003). „The support vector machine under test”. Neurocomputing. 55 (1–2): 169—186. doi:10.1016/S0925-2312(03)00431-4.
- ^ а б Duan, Kai-Bo; Keerthi, S. Sathiya (2005). „Which Is the Best Multiclass SVM Method? An Empirical Study” (PDF). Multiple Classifier Systems. LNCS. 3541. стр. 278—285. CiteSeerX 10.1.1.110.6789 . ISBN 978-3-540-26306-7. doi:10.1007/11494683_28. Архивирано из оригинала (PDF) 03. 05. 2013. г. Приступљено 19. 11. 2021.
- ^ Hsu, Chih-Wei; Lin, Chih-Jen (2002). „A Comparison of Methods for Multiclass Support Vector Machines” (PDF). IEEE Transactions on Neural Networks. 13 (2): 415—25. PMID 18244442. doi:10.1109/72.991427. Архивирано из оригинала (PDF) 03. 05. 2013. г. Приступљено 19. 11. 2021.
- ^ Platt, John; Cristianini, Nello; Shawe-Taylor, John (2000). „Large margin DAGs for multiclass classification” (PDF). Ур.: Solla, Sara A.; Leen, Todd K.; Müller, Klaus-Robert. Advances in Neural Information Processing Systems. MIT Press. стр. 547—553. Архивирано из оригинала (PDF) 2012-06-16. г.
- ^ Dietterich, Thomas G.; Bakiri, Ghulum (1995). „Solving Multiclass Learning Problems via Error-Correcting Output Codes” (PDF). Journal of Artificial Intelligence Research. 2: 263—286. Bibcode:1995cs........1101D. arXiv:cs/9501101 . doi:10.1613/jair.105. Архивирано из оригинала (PDF) 2013-05-09. г.
- ^ Crammer, Koby; Singer, Yoram (2001). „On the Algorithmic Implementation of Multiclass Kernel-based Vector Machines” (PDF). Journal of Machine Learning Research. 2: 265—292. Архивирано из оригинала (PDF) 2015-08-29. г.
- ^ Lee, Yoonkyung; Lin, Yi; Wahba, Grace (2001). „Multicategory Support Vector Machines” (PDF). Computing Science and Statistics. 33. Архивирано из оригинала (PDF) 2013-06-17. г.
- ^ Lee, Yoonkyung; Lin, Yi; Wahba, Grace (2004). „Multicategory Support Vector Machines”. Journal of the American Statistical Association. 99 (465): 67—81. CiteSeerX 10.1.1.22.1879 . doi:10.1198/016214504000000098.
- ^ Van den Burg, Gerrit J. J.; Groenen, Patrick J. F. (2016). „GenSVM: A Generalized Multiclass Support Vector Machine” (PDF). Journal of Machine Learning Research. 17 (224): 1—42.
- ^ Joachims, Thorsten; "Transductive Inference for Text Classification using Support Vector Machines", Proceedings of the 1999 International Conference on Machine Learning (ICML 1999), pp. 200–209.
- ^ Drucker, Harris; Burges, Christ. C.; Kaufman, Linda; Smola, Alexander J.; and Vapnik, Vladimir N. (1997); "Support Vector Regression Machines", in Advances in Neural Information Processing Systems 9, NIPS 1996, 155–161, MIT Press.
- ^ Suykens, Johan A. K.; Vandewalle, Joos P. L.; "Least squares support vector machine classifiers", Neural Processing Letters, vol. 9, no. 3, Jun. 1999, pp. 293–300.
- ^ Smola, Alex J.; Schölkopf, Bernhard (2004). „A tutorial on support vector regression” (PDF). Statistics and Computing. 14 (3): 199—222. CiteSeerX 10.1.1.41.1452 . doi:10.1023/B:STCO.0000035301.49549.88. Архивирано из оригинала (PDF) 2012-01-31. г.
- ^ Polson, Nicholas G.; Scott, Steven L. (2011). „Data Augmentation for Support Vector Machines”. Bayesian Analysis. 6 (1): 1—23. doi:10.1214/11-BA601 .
- ^ Wenzel, Florian; Galy-Fajou, Theo; Deutsch, Matthäus; Kloft, Marius (2017). „Bayesian Nonlinear Support Vector Machines for Big Data”. Machine Learning and Knowledge Discovery in Databases (ECML PKDD). Lecture Notes in Computer Science. 10534: 307—322. Bibcode:2017arXiv170705532W. ISBN 978-3-319-71248-2. arXiv:1707.05532 . doi:10.1007/978-3-319-71249-9_19.
- ^ Florian Wenzel; Matthäus Deutsch; Théo Galy-Fajou; Marius Kloft; ”Scalable Approximate Inference for the Bayesian Nonlinear Support Vector Machine” Архивирано на сајту Wayback Machine (23. октобар 2021)
- ^ Ferris, Michael C.; Munson, Todd S. (2002). „Interior-Point Methods for Massive Support Vector Machines” (PDF). SIAM Journal on Optimization. 13 (3): 783—804. CiteSeerX 10.1.1.216.6893 . doi:10.1137/S1052623400374379. Архивирано из оригинала (PDF) 2008-12-04. г.
- ^ Fan, Rong-En; Chang, Kai-Wei; Hsieh, Cho-Jui; Wang, Xiang-Rui; Lin, Chih-Jen (2008). „LIBLINEAR: A library for large linear classification” (PDF). Journal of Machine Learning Research. 9: 1871—1874.
- ^ Fan, Rong-En; Chang, Kai-Wei; Hsieh, Cho-Jui; Wang, Xiang-Rui; Lin, Chih-Jen (2008). „LIBLINEAR: A library for large linear classification”. Journal of Machine Learning Research. 9 (Aug): 1871—1874.
- ^ Mohamad, Ismail; Usman, Dauda (2013-09-01). „Standardization and Its Effects on K-Means Clustering Algorithm”. Research Journal of Applied Sciences, Engineering and Technology. 6 (17): 3299—3303. doi:10.19026/rjaset.6.3638 .
- ^ Fennell, Peter; Zuo, Zhiya; Lerman, Kristina (2019-12-01). „Predicting and explaining behavioral data with structured feature space decomposition”. EPJ Data Science. 8. doi:10.1140/epjds/s13688-019-0201-0 .
Додатна литература
уреди- Bennett, Kristin P.; Campbell, Colin (2000). „Support Vector Machines: Hype or Hallelujah?” (PDF). SIGKDD Explorations. 2 (2): 1—13. doi:10.1145/380995.380999.
- Cristianini, Nello; Shawe-Taylor, John (2000). An Introduction to Support Vector Machines and other kernel-based learning methods. Cambridge University Press. ISBN 0-521-78019-5.
- Fradkin, Dmitriy; Muchnik, Ilya (2006). „Support Vector Machines for Classification” (PDF). Ур.: Abello, J.; Carmode, G. Discrete Methods in Epidemiology. DIMACS Series in Discrete Mathematics and Theoretical Computer Science. 70. стр. 13—20.
- Ivanciuc, Ovidiu (2007). „Applications of Support Vector Machines in Chemistry” (PDF). Reviews in Computational Chemistry. 23: 291—400. ISBN 9780470116449. doi:10.1002/9780470116449.ch6.
- James, Gareth; Witten, Daniela; Hastie, Trevor; Tibshirani, Robert (2013). „Support Vector Machines” (PDF). An Introduction to Statistical Learning : with Applications in R. New York: Springer. стр. 337—372. ISBN 978-1-4614-7137-0.
- Schölkopf, Bernhard; Smola, Alexander J. (2002). Learning with Kernels. Cambridge, MA: MIT Press. ISBN 0-262-19475-9.
- Steinwart, Ingo; Christmann, Andreas (2008). Support Vector Machines. New York: Springer. ISBN 978-0-387-77241-7.
- Theodoridis, Sergios; Koutroumbas, Konstantinos (2009). Pattern Recognition (4th изд.). Academic Press. ISBN 978-1-59749-272-0.
Спољашње везе
уреди- libsvm, <a href="https://en.wiki.x.io/wiki/LIBSVM" rel="mw:ExtLink" title="LIBSVM" class="cx-link" data-linkid="924">LIBSVM</a> је популарна библиотека за ученике MПВ-а
- liblinear је библиотека за велику линеарну класификацију укључујући неке МПВ
- [1]SVM light је колекција софтверских алата за учење и класификацију користећи МПВ
- [2] Архивирано на сајту Wayback Machine (5. мај 2013)SVMJS live demo је Графички кориснички интерфејс демо за JavaScript имплементацију МПВ-а