src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstract-Cloud computing levererar datorer som ett verktyg för användare över hela världen. En konsekvens av denna modell är att molndatacentralerna har höga installations- och driftskostnader samt betydande koldioxidavtryck för miljön. Vi behöver utveckla lösningar för Green Cloud Computing (GCC) som minskar dessa driftkostnader och därmed sparar energi och minskar negativa miljöeffekter. För att uppnå detta mål krävs en grundlig förståelse av energikonsumtionsmönstren i komplexa molnmiljöer. Vi presenterar en ny energiförbrukningsmodell och tillhörande analysverktyg för Cloud computing-miljöer. Vi mäter energiförbrukningen i molnmiljöer baserat på olika driftuppgifter. Empirisk analys av korrelationen mellan energiförbrukning och molndata och beräkningsuppgifter samt systemprestanda kommer att undersökas utifrån vår energiförbrukningsmodell och vårt analysverktyg. Våra forskningsresultat kan integreras i molnsystem för att övervaka energiförbrukningen och stödja statisk eller dynamisk systemoptimering. | Energiförbrukning för olika körtidsuppgifter har undersökts genom att undersöka korrelationen mellan energiförbrukning och beräkningsuppgifter REF. | 10,798,166 | An energy consumption model and analysis tool for cloud computing environments | {'venue': "GREENS '12", 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,581 |
Djupare neurala nätverk är svårare att träna. Vi presenterar en återstående utbildningsram för att underlätta utbildningen av nätverk som är betydligt djupare än de som användes tidigare. Vi omformulerar uttryckligen lagren som lärande restfunktioner med hänvisning till lageringångar, istället för att lära sig orefererade funktioner. Vi tillhandahåller omfattande empiriska bevis som visar att dessa kvarvarande nätverk är lättare att optimera, och kan få noggrannhet från avsevärt ökat djup. På ImageNet dataset utvärderar vi kvarvarande nät med ett djup på upp till 152 lager-8× djupare än VGG nät [41] men fortfarande har lägre komplexitet. En ensemble av dessa restnät uppnår 3.57% fel på ImageNet testuppsättningen. Detta resultat vann första plats på ILSVRC 2015 klassificering uppgift. Vi presenterar även analys på CIFAR-10 med 100 och 1000 lager. Djupet av representationer är av central betydelse för många visuella igenkänningsuppgifter. På grund av våra extremt djupa representationer får vi en relativ förbättring på 28 % av COCO-datan för objektdetektering. Djupa restnät är grunden för våra bidrag till ILSVRC & COCO 2015 tävlingar 1, där vi också vann 1: a platser på uppgifterna ImageNet upptäckt, ImageNet lokalisering, COCO upptäckt och COCO segmentering. | Han och Al. I Ref föreslogs en återstående utbildningsram för att lindra utbildningen av neurala nätverk. | 206,594,692 | Deep Residual Learning for Image Recognition | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,582 |
Legerade robotar utgör en av de största utmaningarna inom robotteknik. Dynamiska och smidiga manövrer av djur kan inte efterliknas av befintliga metoder som är skapade av människor. Ett övertygande alternativ är att stärka lärandet, vilket kräver minimalt hantverksarbete och främjar den naturliga utvecklingen av en kontrollpolitik. Men än så länge är förstärkande inlärningsforskning för legerade robotar huvudsakligen begränsad till simulering, och endast få och jämförbara enkla exempel har satts in på verkliga system. Den främsta orsaken är att träning med riktiga robotar, särskilt med dynamiska balanseringssystem, är komplicerat och dyrt. I det nuvarande arbetet rapporterar vi en ny metod för att utbilda en neural nätverkspolitik i simulering och överföra den till ett toppmodernt legerat system, vilket gör att vi utnyttjar snabba, automatiserade och kostnadseffektiva datagenereringssystem. Tillvägagångssättet tillämpas på ANYmal robot, ett sofistikerat medel-hund-stort fyrsidigt system. Med hjälp av policyer tränas i simulering, den fyrdelade maskinen uppnår locomotion färdigheter som går utöver vad som hade uppnåtts med tidigare metoder: ANYmal kan exakt och energieffektivt följa hög nivå kroppshastighet kommandon, kör snabbare än någonsin tidigare, och återhämtar sig från fall även i komplexa konfigurationer. https://doi.org/10.1126/scirobotics.aau5872 Legerade robotsystem är attraktiva alternativ till spårade/hjuliga robotar för tillämpningar i svår terräng och komplexa röriga miljöer. Deras frihet att välja kontaktpunkter med miljön gör det möjligt för dem att övervinna hinder som är jämförbara med deras benlängd. Med sådana förmågor kan legerade robotar en dag rädda människor i skogar och berg, klättra i trappor för att bära nyttolaster på byggplatser, inspektera ostrukturerade underjordiska tunnlar och utforska andra planeter. Legerade system har potential att utföra alla fysiska aktiviteter som människor och djur kan utföra. En mängd olika bensystem håller på att utvecklas för att föra oss närmare denna framtidsvision. Boston Dynamics introducerade en serie robotar utrustade med hydrauliska ställdon [1, 2]. Dessa har fördelar i drift eftersom de drivs med konventionellt bränsle med hög energitäthet. System av denna typ kan dock inte skalas ned (vanligen > 40 kg) och generera rök och buller, vilket begränsar dem till utomhusmiljöer. En annan familj av legerade system är utrustade med elektriska ställdon, som är bättre lämpade för inomhusmiljöer. MIT Cheetah [3] är ett av de mest lovande bensystem av detta slag. Det är en snabb, effektiv och kraftfull fyrsidig robot designad med avancerad aktiveringsteknik. Det är dock en forskningsplattform som är optimerad främst för hastighet och har inte utvärderats noggrant med avseende på batteriets livslängd, svarvningsförmåga, mekanisk robusthet och utomhustillämpbarhet. Boston Dynamics nya robot, SpotMini, drivs också av elektriska ställdon och är utformad för både inomhus- och utomhusbruk. Även om detaljerna inte har avslöjats är en rad offentliga demonstrationer och medieutgåvor [4] övertygande bevis för att de är tillämpliga på verksamhet i verkligheten. Plattformen som används i detta arbete, ANYmal [5], är en annan lovande fyrsidig robot drivs av elektriska ställdon. Dess bioinspirerade ställdonskonstruktion gör den robust mot slag samtidigt som den möjliggör exakt vridmomentmätning vid fogarna. Den komplicerade ställdonskonstruktionen ökar dock kostnaderna och äventyrar robotens effekt. Att utforma kontrollalgoritmer för dessa hårdvaruplattformar är fortfarande exceptionellt utmanande. Ur kontrollperspektiv är dessa robotar högdimensionella och icke-mjuka system med många fysiska begränsningar. Kontaktpunkterna ändras över tid och beroende på den manöver som utförs och därför kan inte förspecificeras. Analytiska modeller av robotarna är ofta felaktiga och skapar osäkerhet i dynamiken. En komplex sensor svit och flera lager av programvara ger buller och förseningar till informationsöverföring. Konventionella kontrollteorier är ofta otillräckliga för att hantera dessa problem på ett effektivt sätt. Specialiserade kontrollmetoder som utvecklats för att ta itu med detta komplexa problem kräver vanligtvis en lång konstruktionsprocess och mödosam parameterinställning. Den mest populära metoden för att styra fysiska bensystem är modulär controller design. Denna metod bryter ner kontrollproblemet till mindre delmoduler som till stor del är frikopplade och därmed lättare att hantera. Varje modul baseras på malldynamik [6] eller heuristik och genererar referensvärden för nästa modul. Till exempel använder vissa populära metoder [7] [8] [9] [10] en mall-dynamikbaserad styrmodul som approximerar roboten som en punktmassa med en massalös lem för att beräkna nästa fotfästesposition. Med tanke på fothållarna beräknar nästa modul en parameteriserad bana för foten att följa. Den sista modulen spårar banan med en enkel Proportionell-Integral-Derivativ (PID) controller. Eftersom utgångarna för dessa moduler är fysiska storheter, såsom kroppshöjd eller fotbana, kan varje modul anpassas individuellt. På senare tid har man föreslagit metoder för optimering av banan för att mildra de ovan nämnda problemen. I dessa metoder är regulatorn uppdelad i två moduler: planering och spårning. Planeringsmodulen använder styv kroppsdynamik och numerisk optimering för att beräkna en optimal väg som roboten ska följa för att nå önskat mål. Spårningsmodulen används sedan för att följa sökvägen. I allmänhet, banoptimering för en komplex stel kropp modell med många ospecificerade kontaktpunkter är bortom kapaciteten för nuvarande optimeringstekniker. I praktiken används därför en rad approximationer för att minska komplexiteten. Vissa metoder approximerar kontaktdynamiken för att vara smidig [13, 14], vilket gör dynamiken olika. Särskilt Neunert et al. [13] visade att sådana metoder kan användas för att kontrollera en fysisk quarupedal robot. Andra metoder [15] specificerar kontakttider och löser för delar av banor där dynamiken förblir jämn. Några metoder syftar till att lösa detta problem med lite till ingen approximation [16, 17]. Dessa metoder kan upptäcka ett gångmönster (dvs. kontaktsekvens) med hård kontakt modeller och har visat automatisk rörelsegenerering för 2D robotsystem men, liksom alla andra bana optimering tillvägagångssätt, de möjliga kontaktpunkter anges en priori. Medan mer automatiserade än modulära konstruktioner, de befintliga optimeringsmetoderna utför sämre än toppmoderna modulära regulatorer. Den primära frågan är att numerisk optimering av banan fortfarande är utmanande, kräver inställning, och i många fall kan producera suboptimala lösningar. Dessutom måste optimering utföras vid exekveringstidpunkten på roboten, vilket gör dessa metoder beräkning dyrt. Detta problem löses ofta genom att minska precisionen eller köra optimeringen på en kraftfull extern maskin, men båda lösningarna introducerar sina egna begränsningar. Dessutom består systemet fortfarande av två oberoende moduler som inte anpassar sig till varandras prestandaegenskaper. Detta kräver hand-tuning av spåraren; men exakt spårning snabb rörelse genom ett underaktiverat system med många oväntade kontakter är nästan omöjligt. Datadrivna metoder, som förstärkning av lärandet (RL), lovar att övervinna begränsningarna i tidigare modellbaserade metoder genom att lära sig effektiva kontrollanter direkt från erfarenhet. Tanken med RL är att samla in data genom test och fel och automatiskt justera styrenheten för att optimera den givna kostnads (eller belöning) funktion som representerar uppgiften. Denna process är helt automatiserad och kan optimera regulatorns end-to-end, från sensoravläsningar till styrsignaler på låg nivå, vilket möjliggör mycket smidiga och effektiva regulatorer. På nedåtsidan kräver RL vanligtvis oöverkomligt lång interaktion med systemet för att lära sig komplexa färdigheter -typiskt veckor eller månader av realtidsutförande [18]. Dessutom kan regulatorn under utbildningen uppvisa plötsligt och kaotiskt beteende, vilket leder till logistiska komplikationer och säkerhetsproblem. Direkt tillämpning av inlärningsmetoder på fysiska bensystem är därför komplicerad och har endast visats på relativt enkla och stabila plattformar [19] eller i ett begränsat sammanhang [20]. På grund av svårigheterna med träning på fysiska system, de flesta avancerade tillämpningar av RL för leged locomotion är begränsade till simulering. Nya innovationer inom RL gör det möjligt att utbilda rörelsepolitik för komplexa legerade modeller. Levine och Koltun [21] kombinerade inlärning och bana optimering för att träna en locomotion controller för en simulerad 2D walker. Schulman m.fl. [22] tränade en rörelsepolitik för en liknande 2D-gångare med en aktörskritisk metod. Senare arbete fick full 3D-politik [23] [24] [25] [26]. I dessa uppsatser uppnår animerade karaktärer anmärkningsvärda motoriska färdigheter i simulering. Med tanke på de framsteg som gjorts när det gäller att förstärka lärandet i simulerade miljöer är en naturlig fråga om dessa inlärda strategier kan tillämpas på fysiska system. Tyvärr hindras sådan simulering-till-verklighet överföring av verkligheten gapet - skillnaden mellan simulering och det verkliga systemet i termer av dynamik och perception. Det finns två allmänna strategier för att överbrygga klyftan i verkligheten. Den första är att förbättra simuleringens trohet antingen analytiskt eller på ett datadrivet sätt; den senare är också känd som systemidentifiering [27] [28] [29] [30] [31] [32]. Den andra metoden är att acceptera brister i simulering och syftar till att göra regulatorn robust för variationer i systemegenskaper, vilket möjliggör bättre överföring. Denna robusthet kan uppnås genom att randomisera olika aspekter av simuleringen: att använda en stokastisk politik [33], randomisera dynamiken [34] [35] [36] [37], lägga buller till observationerna [38], och störa systemet med slumpmässiga störningar. Båda tillvägagångssätten leder till förbättrad överföring, men den förra är tungrodd och ofta omöjlig, medan den senare kan äventyra politikens resultat. Därför används båda i praktiken tillsammans. Till exempel det senaste arbetet av Tan et al. [35] visar framgångsrik sim-to-real överföring av locomotion policys på en quadrupedal system som kallas Minitaur genom användning av en exakt analytisk ställdon modell och dynamik randomisering. Även om uppnå imponerande resultat, metoden Tan et al. [35] är avgörande beroende av noggrann analysmodellering av ställdonen, vilket är möjligt för direktdrivna ställdon (som används i Minitaur), men inte för mer komplexa ställdon som servoografer, Serie-Elastiska aktuatorer (SEAs) och hydraulcylindrar, som vanligen används i större bensystem. I detta arbete utvecklar vi en praktisk metodik för autonomt lärande och överföring av smidiga och dynamiska motoriska färdigheter för komplexa och stora legerade system, såsom ANYmal robot [5]. Jämfört med de robotar som användes i [35] har ANYmal en mycket större benlängd i förhållande till fotavtryck, vilket gör den mer dynamisk, mindre statiskt stabil, och därför svårare att kontrollera. Dessutom finns det 12 strategiska miljöbedömningar, som är svåra att kontrollera och för vilka det inte finns tillräckligt noggranna analytiska modeller. Gehring m.fl. [39] har försökt sig på analytisk modellering av en strategisk miljöbedömning, men som vi kommer att visa är deras modell inte tillräckligt exakt för att utbilda en högpresterande locomotionscontroller. Vårt tillvägagångssätt sammanfattas i bild. 1................................................................ Vår nyckelinsikt på simuleringssidan är att effektivitet och realism kan uppnås genom att kombinera klassiska modeller som representerar välkända articu- I det första steget identifierar vi robotens fysiska parametrar och uppskattar osäkerheter i identifieringen. I det andra steget tränar vi ett ställdonsnät som modellerar komplexa ställdon/programvaradynamik. I det tredje steget tränar vi en kontrollpolicy med hjälp av de modeller som tagits fram i de två första stegen. I det fjärde steget använder vi den utbildade policyn direkt på det fysiska systemet. Sent system och kontaktdynamik med inlärningsmetoder som kan hantera komplex aktivering (Fig. 1, Steg 1 och 2). De styva länkarna i ANYmal, som är sammankopplade genom högkvalitativa kullager, liknar nära ett idealiserat flerkroppssystem som kan modelleras med välkända fysiska principer [40]. Denna analytiska modell innehåller dock inte den uppsättning mekanismer som kartlägger manöverdonskommandon till de generaliserade krafter som verkar på systemet med stela kroppar: ställdonsdynamiken, fördröjningarna i styrsignalerna som införs av flera hård- och programvarulager, den låga styrenhetens dynamik, och överensstämmelsen/dämpande vid lederna. Eftersom dessa mekanismer är nästan omöjliga att modellera exakt, lär vi oss motsvarande kartläggning på ett end-to-end sätt - från befallda åtgärder till de resulterande vridmomenten - med ett djupt nätverk. Vi lär oss detta aktuatornät på det fysiska systemet via självövervakat lärande och använder det i simuleringsslingan för att modellera var och en av de 12 lederna av ANYmal. Avgörande är att hela hybridsimulatorn, inklusive en styvkroppssimulering och ställverken, körs på nästan 500 K tidssteg per sekund, vilket gör att simuleringen kan köras ungefär tusen gånger snabbare än i realtid. Ungefär hälften av körtiden används för att utvärdera ställdonsnäten, och de återstående beräkningarna utförs effektivt via vår interna simulator, som utnyttjar den snabba kontaktlösaren av Hwangbo et al. [41], effektiva rekursiva algoritmer för beräkning dynamiska egenskaper ledade system (komposit stel kropp algoritm och rekursiv Newton-Euler algoritm) [40], och en snabb kollision upptäckt bibliotek [42]. Tack vare effektiva programimplementeringar behövde vi ingen särskild datorutrustning, såsom multi-CPU eller multi-GPU servrar, för utbildning. Alla träningspass som presenterades i denna uppsats gjordes på en persondator med en CPU och en GPU, och ingen varade mer än elva timmar. Vi använder hybridsimulatorn för träningsledare via förstärkningslärande (Fig. 1 steg 3). Styrenheten representeras av en flerskikts perceptron som tar som ingång historien om robotens tillstånd och producerar som utgång det gemensamma positionsmålet. Specificera olika belöningsfunktioner för RL avkastningsregulatorer för olika uppgifter av intresse. Den utbildade regulatorn sätts sedan ut direkt på det fysiska systemet (Fig. 1 steg 4). Till skillnad från de befintliga modellbaserade kontrollmetoderna är vår föreslagna metod beräkningseffektiv vid körning. Slutsats av det enkla nätverk som används i detta arbete tar 25 μs på en enda CPU-tråd, vilket motsvarar cirka 0,1% av de tillgängliga ombord beräkningsresurserna på roboten som används i experimenten. Detta är i motsats till modellbaserade kontrollmetoder som ofta kräver en extern dator för att fungera med tillräcklig frekvens [13, 15]. Genom att helt enkelt byta nätverksparametern som, den lärda controllern manifesterar mycket olika beteenden. Även om dessa beteenden tränas separat, de delar samma kodbas: bara hög nivå uppgiftsbeskrivning förändringar beroende på beteendet. Däremot är de flesta av de befintliga styrenheterna uppgiftsspecifika och måste utvecklas nästan från grunden för varje ny manöver. Vi tillämpar den presenterade metoden för att lära sig flera komplexa motoriska färdigheter som används på den fysiska fyrdubblade. För det första gör regulatorn det möjligt för ANYmal-roboten att följa bashastighetskommandon mer exakt och energieffektivt än den bästa tidigare existerande regulatorn som körs på samma hårdvara. För det andra, styrenheten gör roboten köra snabbare än någonsin tidigare, bryta tidigare hastighet rekord av ANYmal med 25 %. Styrenheten kan fungera på gränsen till hårdvaran och skjuta prestanda till max. För det tredje lär vi oss en regulator för dynamisk återhämtning från ett fall. Denna manöver är exceptionellt utmanande för befintliga metoder, eftersom det innebär flera ospecificerade interna och externa kontakter. Det kräver fin samordning av åtgärder över alla lemmar och måste använda momentum för att dynamiskt vända roboten. Såvitt vi vet har sådan återhämtning aldrig tidigare uppnåtts på en fyrdubblad av jämförbar komplexitet. Film S1 sammanfattar resultaten och metoden för detta arbete. I följande underavsnitt beskriver vi resultaten i detalj. I de flesta praktiska scenarier styrs robotens rörelse av navigeringskommandon på hög nivå, såsom önskad riktning och rörelsehastighet. Dessa kommandon kan till exempel tillhandahållas av en högre planeringsalgoritm eller av en användare via teledrift. Med vår metod tränade vi en locomotion policy som kan följa sådana kommandon på runtime, anpassa gång efter behov, utan förkunskaper om kommandosekvens och timing. Ett kommando består av tre komponenter: framåthastighet, lateral hastighet och girhastighet. Vi utvärderar först kvalitativt denna inlärda rörelsepolitik genom att ge slumpmässiga kommandon med hjälp av en joystick. Dessutom störs roboten under experimentet av flera externa knuffar till huvudkroppen. Det resulterande beteendet visas i filmen S2. Videon visar cirka 40 sekunder av robust kommando efter. Vi testade också politiken i fem minuter utan ett enda misslyckande, vilket visar hur robust den lärda politiken är. Den utbildade policyn utför stabilt inom kommandodistributionen som den är tränad på, med någon slumpmässig kombination av kommandot hastigheter. Även om den främre kommandohastigheten provtas från U(−1, 1) m/s under utbildningen, når den utbildade policyn 1,2 m/s av uppmätt framåthastighet på ett tillförlitligt sätt när den främre kommandohastigheten ställs in något högre (1,23 m/s) och de andra kommandohastigheterna är inställda på noll. Därefter utvärderar vi kvantitativt denna inlärda rörelsepolicy genom att köra roboten med slumpmässiga kommandon. Kommandonen provtas enligt beskrivningen i avsnitt S2. Roboten får ett nytt kommando varannan sekund och kommandot hålls konstant däremellan. Provningen utförs i 30 sekunder och totalt 15 slumpmässiga övergångar utförs, inklusive den inledande övergången från nollhastighet. Bashastighetsdiagrammet visas i figur. S1............................................................................................................ Det genomsnittliga linjära hastighetsfelet var 0,143 m/s och det genomsnittliga girhastighetsfelet var 0,174 rad/s. Vi jämför nu den lärda controllern med den bäst presterande befintliga locomotion controllern tillgänglig för ANYmal [12]. För detta experiment, använde vi en flygande trav gång mönster (trot med full flygfas), eftersom detta är den enda gång som stabilt når 1,0 m/s framåt hastighet. Vi använde samma hastighetskommandoprofil som resulterar i bashastigheten som visas i fikon. S2............................................................................................................ Det genomsnittliga linjära hastighetsfelet var 0,231 m/s och det genomsnittliga girhastighetsfelet var 0,278 rad/s. Med tanke på samma kommandoprofil är den modellbaserade styrenhetens spårningsfel cirka 95 % högre än vår lärda styrenhet med avseende på linjär hastighet och cirka 60 % högre med avseende på girhastighet. Dessutom använde vår lärda styrenhet mindre vridmoment (8,23 Nm jämfört med 11,7 Nm) och mindre mekanisk effekt (78.1 W jämfört med 97,3 W) i genomsnitt. Film S3 illustrerar experimenten för både den inlärda politiken och den modellbaserade politiken. Kontrollprestandan utvärderades också och jämfördes i framåtgående körning. För detta ändamål skickade vi en stegingång med fyra olika hastighetskommandon (0,25, 0,5, 0,75 och 1,0 m/s) för 4,5 s vardera. Resultaten, inklusive en jämförelse med föregående metod [12], visas i bild. 2............................................................... Figur 2A visar det flygtrotmönster som upptäckts av den inlärda styrenheten. Observera att denna flygfas försvinner för låg hastighet kommandon och ANYmal visar walking trav som visas i filmen S2. Även utan att ange gångmönstret manifesterar den inlärda politiken traven, ett gångmönster som vanligen observeras hos fyrfaldiga djur. Figur 2B visar noggrannheten för hastighetsspårning av policyn både i simulering och på den riktiga roboten. Observera att svängningen av den observerade hastigheten runt den befallda är ett välkänt fenomen i bensystem, inklusive människor [43]. När det gäller genomsnittlig hastighet har den inlärda policyn ett fel på 2,2 % på den verkliga roboten, 1,1 % högre än i en simulering. Figur 2C, 2D och 2E jämför prestandan hos den inlärda regulatorn med Bellicoso et al. [12] när det gäller noggrannhet och effektivitet. Vi använde två gångar från [12] för jämförelsen: flygande trav, den enda gång som kan uppnå 1 m/s, och dynamisk lateral gång, den mest effektiva gång. Först jämför vi hastighetsfelet vid olika befallda hastigheter i Bild. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Den inlärda styrenheten är mer exakt än den tidigare styrenheten för alla befallda hastigheter: med en faktor på 1,5 till 2,5 jämfört med den dynamiska sidogången och med en faktor på 5 till 7 jämfört med den flygande traven, beroende på hastigheten. Jag tänkte väl det. 2D visar den mekaniska uteffekten som en funktion av den uppmätta hastigheten. Den lärda regulatorn utför på samma sätt som den dynamiska laterala promenaden och effektivare än den flygande traven med en faktor på 1,2 till 2,5, beroende på hastigheten. Äntligen, Fig. 2E ritar den genomsnittliga uppmätta vridmomentstorleken mot den uppmätta hastigheten. Den inlärda styrenheten är betydligt effektivare i detta avseende än båda tidigare gångar, med 23–36 % mindre vridmoment beroende på hastigheten. Denna stora förbättring av effektiviteten är möjlig eftersom den lärda regulatorn går med 10 till 15 grader rakare nominell knäställning. Den nominella hållningen kan inte justeras till denna nivå i Bellicoso et al. eftersom detta drastiskt skulle öka graden av misslyckande (faller). Därefter jämför vi vår metod med ablade alternativ: träning med en idealisk ställdonsmodell och träning med en analytisk ställdonsmodell. Den idealiska ställdonsmodellen förutsätter att alla regulatorer och hårdvara inuti ställdonet har oändlig bandbredd och noll latens. Den analytiska modellen använder den faktiska styrkoden som körs på ställdonet tillsammans med identifierade dynamiska parametrar från experiment och verktyg för ComputerAided Design (CAD). Vissa parametrar, såsom latens, dämpning och friktion, är handjusterade för att öka noggrannheten hos förutsagt vridmoment i förhållande till data som erhållits från experiment. Den politiska utbildningen för varje metod är identisk med vår. Båda de alternativa metoderna kunde inte göra ett enda steg utan att falla. De resulterande rörelserna visas i filmerna S4 och S5. Vi såg en våldsam skakning av armar och ben, förmodligen på grund av att vi inte tog hänsyn till olika förseningar på rätt sätt. Även om den analytiska modellen innehåller flera fördröjningskällor som är inställda med hjälp av verkliga data, är det komplicerat att exakt modellera alla fördröjningskällor när ställdonet har begränsad bandbredd. SEA-mekanismer genererar amplitudberoende mekanisk svarstid och manuell inställning av latensparametrar blir en utmaning. Vi har justerat den analytiska modellen i mer än en vecka utan större framgång. I föregående avsnitt utvärderade vi den inlärda regulatorns allmängiltighet och robusthet. Nu fokuserar vi på att arbeta nära hårdvarans gränser för att nå högsta möjliga hastighet. Begreppet hög hastighet är i allmänhet hårdvaruberoende. Det finns några leged robotar som är exceptionella i detta avseende. Park m.fl. [44] visade full 3D leged locomotion på över 5,0 m/s med MIT Cheetah. Boston Dynamics WildCat har rapporterats nå 8,5 m/s [45]. Dessa robotar är konstruerade för att köras så snabbt som möjligt medan ANYmal är utformad för att vara robust, pålitlig och mångsidig. Den aktuella hastighetsrekordet på ANYmal är 1,2 m/s och har ställts in med hjälp av den flygande trav gång [12]. Även om detta kanske inte verkar högt, är det 50 % snabbare än tidigare hastighetsrekord på plattformen [39]. Sådana hastigheter är utmanande att nå via konventionell controller design samtidigt som alla gränser för hårdvaran respekteras. Vi har använt den framlagda metoden för att träna en höghastighetslocomotion controller. Denna styrenhet testades på det fysiska systemet genom att långsamt öka den befallda hastigheten till 1,6 m/s och sänka den till noll efter 10 meter. Främre hastighet och ledhastigheter/trång visas i bild. 3............................................................... ANYmal nådde 1,58 m/s i simulering och 1,5 m/s på det fysiska systemet när kommandot var inställt på 1,6 m/s. Alla hastighetsvärden beräknades med ett medelvärde över minst 3 gångcykler. Styrenheten använde både det maximala vridmomentet (40 Nm) och den maximala ledhastigheten (12 rad/s) på det fysiska systemet enligt bild. 3B och 3C. Detta visar att den inlärda politiken kan utnyttja hårdvarans fulla kapacitet för att uppnå målet. För de flesta befintliga metoder, planering samtidigt som redovisning för begränsningarna i hårdvaran är mycket utmanande, och genomförandet av planen på det verkliga systemet tillförlitligt är ännu svårare. Inte ens de senaste metoderna [12, 46] kan begränsa aktiveringen under planeringen på grund av begränsningar i deras planeringsmodul. Moduler i sina regulatorer är inte medvetna om begränsningarna i de senare stadierna och deras utgångar kanske därför inte kan realiseras i det fysiska systemet. Den gångmönster produceras av vår lärda höghastighetståg regulator, visas i Bild. 3D, skiljer sig från den som visas av den kommando-konditionerade locomotion controller. Det är nära till en flygande trav men med betydligt längre flygfas och asymmetrisk flygfas varaktighet. Detta är inte ett vanligt observerat gångmönster i naturen och vi misstänker att det är bland flera nära-optimala lösningslägen för denna uppgift. Policyns beteende illustreras i filmen S6. Legerade system ändrar kontaktpunkter när de rör sig och är därmed benägna att falla. Om en leged robot faller och inte autonomt kan återställa sig själv till en upprätt konfiguration, måste en mänsklig operatör ingripa. Det är därför mycket önskvärt med en autonom återhämtning efter en nedgång. En möjlighet är att representera återhämtningsbeteenden och väl avpassade gemensamma banor som helt enkelt kan spelas upp igen: ett tillvägagångssätt som har använts i vissa kommersiella system [47]. Sådana banor har krävt mödosam manuell inställning. De tar också mycket lång tid att utföra eftersom de inte tar hänsyn till dynamiken i rörelseplanen eller kontrollen. Vissa robotar är utformade så att återhämtning är antingen onödigt eller trivialt [48, 49]. En sådan konstruktion är dock kanske inte möjlig för större och mer komplexa maskiner. Morimoto m.fl. [50] visade att en stående rörelse kan läras på en riktig robot. En enkel trelänkskedja användes dock för demonstration och metoden har inte skalats till realistiska system. Snabb och flexibel återhämtning efter ett fall, som setts hos djur, kräver dynamisk rörelse med flera ospecificerade kontaktpunkter. Kollisionsmodellen för våra fyrhjulingar är mycket komplicerad: den består av 41 kollisionskroppar, såsom lådor, cylindrar och sfärer (Fig. 1 steg 1). Att planera en genomförbar bana för en sådan modell är oerhört komplicerat. Även att simulera ett sådant system är utmanande eftersom det finns många interna kontakter. Vi använder Hwangbo et al. [41] på grund av dess förmåga att hantera en sådan simulering på ett numeriskt stabilt sätt. Med hjälp av den framlagda metoden tränade vi en återhämtningspolitik och testade den på den riktiga roboten. Vi placerar ANYmal i nio slumpmässiga konfigurationer och aktiverar styrenheten som visas i filmen S7. Många utmanande konfigurationer testas, inklusive en nästan helt upp och nedvänd konfiguration (pose 8) och mer komplexa kontaktscenarier där ANYmal vilar på sina egna ben (pose 2 och 4). I alla tester vände sig ANYmal framgångsrikt upprätt. En exempelrörelse visas i bild. 4........................................... Dessa agila och dynamiska beteenden visar att vårt tillvägagångssätt kan lära sig att utföra kontroller för uppgifter som är svåra eller omöjliga att hantera med tidigare metoder. Den inlärningsbaserade kontrollmetod som presenteras i detta dokument uppnådde en ny nivå av rörelseförmåga baserad enbart på utbildning i simulering och utan tråkig inställning på den fysiska roboten. Systemet uppnådde mer exakta och energieffektiva rörelser än den senaste tekniken. Den överträffade tidigare hastighetsrekord med 25 % och lärde sig att konsekvent återställa roboten till en operativ konfiguration genom att dynamiskt rulla över sin kropp. Befintliga styrenheter skapas av ingenjörer. En modell med tillräcklig komplexitet måste utformas och en kontrollstrategi måste utvecklas, testas och justeras. Denna process tar vanligtvis månader och måste upprepas för varje distinkt manöver. Den simulerings- och inlärningsram som används i detta arbete är däremot tillämplig på alla stela kroppssystem. För tillämpningar till nya uppgifter kräver vår metod endast en uppgiftsbeskrivning, som består av kostnadsfunktionen, den initiala tillståndsfördelningen och randomisering. I vår metod, lärd ställdon dynamik minska verkligheten gapet avsevärt, medan stokastisk modellering vägleder politiken för att vara tillräckligt konservativ. Recovery uppgiften var framgångsrik på det allra första försöket på hårdvaran. Vi förbättrade sedan framgångsgraden ytterligare till 100 % genom att lätta på de gemensamma hastighetsbegränsningarna. De resultat som presenteras här erhölls den andra dagen av experiment på det fysiska systemet. Däremot, på grund av många modell-abstraktion lager som är nödvändiga för att göra beräkningen dragbar, tidigare metoder ofta inte kan utnyttja en sofistikerad ställdon modell för att styra ett komplext bened system. Följaktligen äventyrar de ofta prestandan eller förlitar sig på väl avstämda styrenheter på låg nivå. Till exempel styrenheter på låg nivå (t.ex. spårningsregulatorer och helkroppsregulatorer) måste i stor utsträckning ställas in i den testade modellbaserade styrenheten [12] för att minska fel på ställdonen. De inlärda policyerna är också robusta till förändringar i hårdvara, såsom de som orsakas av slitage. Alla kontrollregler har testats i mer än tre månader på den riktiga roboten utan några ändringar. Under denna period var roboten starkt använd med många regulatorer, inklusive de som presenteras här. Många maskinvaruändringar infördes också: olika robotkonfigurationer, som ungefär bidrar med 2,0 kg till totalvikten, och en ny enhet som har en fjäder tre gånger styvare än den ursprungliga. Alla politiska åtgärder som presenteras i detta dokument har genomförts på ett robust sätt även under sådana förhållanden. När det gäller beräkningskostnader har vår strategi en fördel framför tidigare metoder. Även om det kräver flera timmars träning med en vanlig stationär PC, den slutsats på roboten kräver mindre än 25 μs med hjälp av en enda CPU-tråd. Vår metod förskjuter nästan alla beräkningskostnader till utbildningsfasen, där vi kan använda externa beräkningsresurser. Tidigare regulatorer kräver ofta två storleksordningar mer ombord beräkning. Dessa krävande krav begränsar graden av förfining och därmed regulatorns övergripande prestanda. Att använda ett policynätverk som direkt ger ett gemensamt kommando ger en annan fördel till vår metod. I motsats till många tidigare metoder som har numeriska problem vid singular konfigurationer av roboten, kan våra policyer utvärderas vid alla konfigurationer. Följaktligen är vår metod fri från ad hoc-metoder (t.ex. förgreningsvillkor) för att lösa sådana frågor. Även om vårt tillvägagångssätt tillåter till stor del automatiserade upptäckter av prestationspolicyer, kräver det fortfarande viss mänsklig expertis. En kostnadsfunktion och en initial tillståndsfördelning måste utformas och ställas in för varje uppgift. För en person med god förståelse för både uppgiften och RL tar denna process ungefär två dagar för den rörelsepolitik som presenteras i detta arbete. Även om detta fortfarande är betydande tid, all nödvändig inställning sker i simulering. Därför kommer utvecklingstiden att fortsätta att minska i takt med att beräkningstekniken utvecklas. Däremot kräver de tidigare kontrollanter som använder modellens abstraktioner oundvikligen mer utvecklingstid och ofta omfattande inställning av de verkliga systemen. Att utveckla återhämtningspolitiken tog ungefär en vecka, till stor del på grund av att vissa säkerhetsproblem (dvs. höga effekter, snabba svängben, kollisioner med ömtåliga komponenter osv.) inte är särskilt intuitiva att inbädda i en kostnadsfunktion. Att uppnå ett stand-up beteende var lika enkelt som andra uppgifter. Men för att uppnå de säkra och robusta beteenden som visas i detta arbete, måste kostnadsfunktionen justeras flera gånger. Längre utvecklingstid tillskrevs också det faktum att den tränades av en person som inte hade någon tidigare erfarenhet av någon riktig robot. För att utbilda policyer för en ny robot måste nödvändiga modelleringsinsatser göras. Detta inkluderar styv karossmodellering med hjälp av CAD-modellen och ställdonsmodellering med hjälp av ett manöverdonsnätverk. Den första är ofta automatiserad av modern CAD-programvara och den senare är enkel om alla nödvändiga infrastrukturer för programvara/hårdvaror (t.ex. loggning, regression och vridmomentmätningar) finns på plats. Om inte, tar det också en betydande del av utvecklingstiden. Dessutom finns det ett fåtal aktiveringstyper som manifesterar kopplade dynamiker (t.ex. hydrauliska ställdon som delar en enda ackumulator). Lärande ställdon på egen hand kanske inte ger tillräcklig noggrannhet för dessa system. Med god förståelse för ställdonsdynamiken kan lämplig historikkonfiguration uppskattas i förväg och justeras ytterligare med avseende på valideringsfelet. Däremot tar det minst tre veckor att konstruera en analytisk ställdonsmodell för ANYmal även om det finns en mycket liknande modell som studeras i litteraturen [39]. Modellen har också många fler parametrar, varav många inte exakt kan erhållas från mätningar eller datablad. Följaktligen kräver det mer inställning än att bygga ett manöverdonsnätverk. En annan begränsning av vårt tillvägagångssätt iakttogs under denna studies gång. Ett enda neuralt nätverk tränas i en session manifesterar enfacetterade beteenden som inte generaliseras över flera uppgifter. Att införa hierarkisk struktur i det politiska nätverket kan avhjälpa detta och är en lovande väg för framtida arbete [25]. I detta avsnitt beskrivs i detalj simuleringsmiljön, utbildningsprocessen och utplaceringen på det fysiska systemet. En översikt över vår träningsmetod visas i bild. 5................................................................ Träningsslingan fortsätter enligt följande. Den styva kroppssimulatorn ger nästa tillstånd hos roboten med tanke på ledens vridmoment och det aktuella tillståndet. Ledhastigheten och positionsfelet buffras i en gemensam tillståndshistorik inom en ändlig tid fönster. Kontrollpolicyn, som genomförs av en flerskikts perceptron med två dolda skikt, kartlägger observationen av det nuvarande tillståndet och den gemensamma statens historia till de gemensamma positionsmålen. Slutligen kartlägger manöverdonsnätet den gemensamma tillståndshistoriken och de gemensamma positionsmålen till 12 ledvridmomentvärden, och loopen fortsätter. I det följande beskriver vi varje komponent i detalj. För att effektivt träna en komplex politik inom en rimlig tid och överföra den till den verkliga världen behöver vi en simuleringsplattform som är både snabb och korrekt. En av de största utmaningarna med vandrande robotar är dynamiken vid intermittenta kontakter. I detta syfte använder vi den styva kroppskontaktslösaren som presenterades i vårt tidigare arbete [41]. Denna kontaktlösare använder en hård kontaktmodell som till fullo respekterar Coulomb friktionskonrestriktionen. Denna modellering teknik kan exakt fånga den sanna dynamiken i en uppsättning stela kroppar som gör hårda kontakter med sin miljö. Lösaren är inte bara korrekt utan också snabb, vilket genererar cirka 900 000 tidssteg per sekund för den simulerade fyrdubblade på en vanlig stationär maskin. Eftersom vi behöver hundratals miljoner prover för att träna en komplicerad politik, var den här lösaren nyckeln till vårt arbete. Kopplingarnas tröghetsegenskaper beräknas utifrån CAD-modellen. Vi förväntar oss upp till cirka 20 % fel i uppskattningen på grund av omodellerad kablage och elektronik. För att ta hänsyn till sådana modellering felaktigheter stärker vi policyn genom utbildning med 30 olika ANYmal modeller med stokastiskt prov på tröghetsegenskaper. Centralen av massa positioner, massor av länkar, och gemensamma positioner randomiseras genom att lägga till ett buller som provtas från U(−2, 2) cm, U(‐15, 15) %, respektive U(‐2, 2) cm, respektive. Aktivatorer är en viktig del av bensystem. Snabba, kraftfulla, lätta och högexakta ställdon översätter vanligtvis till dynamiska, mångsidiga och smidiga robotar. De flesta legerade system drivs av hydrauliska ställdon [51] eller elektriska motorer med växlar [3], och vissa inkluderar även dedikerad mekanisk överensstämmelse [5, 52]. Dessa ställdon har en sak gemensamt: de är extremt svåra att modellera exakt. Deras dynamik involverar nonlinear och nonsmooth dissipation och de innehåller kaskad feedback loopar och ett antal interna tillstånd som inte ens är direkt observerbara. Gehring m.fl. [39] har ingående studerat modellering av SEA-ställdon. Modellen av Gehring et al. innehåller närmare hundra parametrar som måste uppskattas från experiment eller antas vara korrekta från datablad. Denna process är felbenägen och tidskrävande. Dessutom ger många tillverkare inte tillräckligt detaljerade beskrivningar av sina produkter och en analytisk modell kanske därför inte är genomförbar. I detta syfte använder vi övervakad inlärning för att få en actionto-torque relation som inkluderar all programvara och maskinvarudynamik inom en kontrollloop. Mer exakt tränar vi ett manöverdonsnätverk som ger ett uppskattat vridmoment vid fogarna med tanke på en historik av positionsfel (den faktiska positionen subtraherade från den befallda positionen) och hastigheter. I detta arbete utgår vi från att dynamiken hos ställdonen är oberoende av varandra så att vi kan lära oss en modell för varje ställdon separat. Detta antagande kanske inte är giltigt för andra typer av aktivering. Till exempel, hydrauliska ställdon med en enda gemensam ackumulator kan manifestera kopplade dynamik och ett enda stort nätverk, som representerar flera ställdon tillsammans, kan vara mer önskvärt. Tillstånden hos ställdonen är endast delvis observerbara eftersom de interna tillstånden hos ställdonen (t.ex. tillstånden hos de interna styrenheterna och motorhastigheten) inte kan mätas direkt. Vi antar att nätverket kan tränas för att uppskatta de interna staterna med tanke på en historia av positionsfel och hastigheter, eftersom den givna informationen annars helt enkelt är otillräcklig för att kontrollera roboten på ett tillfredsställande sätt. Det ställdon som används i detta arbete är revolut och radiellt symmetriskt, och det absoluta vinkelläget är irrelevant med tanke på positionsfelet. Vi använder en historik bestående av det nuvarande tillståndet och två tidigare tillstånd som motsvarar t − 0,01 och t − 0,02 sekunder. Observera att alltför sparsam ingångskonfiguration kanske inte effektivt fångar dynamiken vid hög frekvens (> 100 Hz). Denna fråga mildras delvis genom införandet av en smidig kostnadsterm, som straffar plötsliga förändringar i politikens resultat. Alltför tät historia kan också ha negativa effekter: den är mer benägna att översitta och beräkna dyrare. Historiens längd bör väljas så att den är tillräckligt längre än summan av alla kommunikationsförseningar och den mekaniska svarstiden. I praktiken justeras den exakta inmatningskonfigurationen med avseende på valideringsfelet. Denna inställningsprocess tar ofta mindre än en dag eftersom nätverket är mycket litet. För att träna nätverket samlade vi in en datauppsättning bestående av gemensamma positionsfel, gemensamma hastigheter och vridmoment. Vi använde en enkel parameteriserad styrenhet som genererar fotbanor i form av en sinusvåg; motsvarande gemensamma positioner beräknades med hjälp av omvänd kinematics. Fötterna gjorde ständigt eller bröt en kontakt med marken under datainsamlingen så att de resulterande banorna i stort sett härmade banorna följt av en locomotion controller. För att få en rik uppsättning data varierade vi amplituden (5-10 cm) och frekvensen (1-25 Hz) av fotbanorna och störde roboten manuellt under datainsamlingen. Vi fann att spänningen måste täcka ett brett spektrum av frekvensspektrum eftersom den tränade modellen annars genererar onaturlig oscillation även under träningsfasen. Datainsamlingen tog mindre än 4 minuter eftersom data kan samlas in parallellt från de 12 identiska ställdonen på Anymal. Data samlades in vid 400 Hz, därför innehåller det resulterande datasetet mer än en miljon prover. Cirka 90 % av de data som genererades användes för utbildning och resten användes för validering. Ställdonsnätverket är en flerskikts perceptron (MLP) med 3 dolda lager på 32 enheter vardera (Fig. 5, " aktuatornät" rutan). Efter testning med två gemensamma smidiga och avgränsade aktiveringsfunktioner -tanh och softsign [53] - valde vi softsign aktiveringsfunktionen, eftersom den är beräkningseffektiv och ger en smidig kartläggning. Att utvärdera ställdonsnätet för alla 12 fogar tar 12,2 μs med softsign och 31,6 μs med tanh. Som visas här resulterar tanh-aktiveringsfunktionen i en högre beräkningskostnad och är därför mindre att föredra. De två aktiveringsfunktionerna resulterade i ungefär samma valideringsfel (0.70.8 Nm i RMS). Valideringsresultatet med softsign-funktionen visas i bild. 6............................................................. Det tränade nätverket förutspår nästan perfekt vridmomentet från valideringsdata, medan den idealiska manöverdonsmodellen inte ger en rimlig förutsägelse. Här utgår den idealiska ställdonsmodellen från att det inte finns någon kommunikationsfördröjning och att ställdonet omedelbart kan generera något befallt vridmoment (dvs. oändlig ställdonsbandbredd). Den utbildade modellen har ett genomsnittsfel på 0,740 Nm på valideringssetet, vilket inte är långt från upplösningen av vridmomentmätningen (0,2 Nm) och mycket mindre än felet hos den idealiska ställdonsmodellen (3.55 Nm). Dess förutsägelsefel på testdata (dvs. samlas in med hjälp av den utbildade locomotion policyn) är betydligt högre (0.966 Nm) men fortfarande mycket mindre än den idealiska modellen (5.74 Nm). Vi representerar kontrollproblemet i diskretiserad tid. Vid varje gång steg t agenten får en observation o t på O, utför en åtgärd a t på A, och uppnår en skalar belöning r t på R. Vi hänvisar till belöning och kostnad utbytbart, med kostnaden är negativ av belöningen. Vi betecknar med O t = o t, o t-1,. .......................................................................... Agenten väljer åtgärder enligt en stokastisk politik π (a t på O t ), som är en fördelning över åtgärder som är beroende av de senaste iakttagelserna. Syftet är att hitta en politik som maximerar den diskonterade summan av belöningar över en oändlig horisont: där γ 0, 1) är rabattfaktorn och τ (π) är banan fördelning under politik π (fördelningen beror både på politiken och miljön dynamik). I vår inställning är observationerna mätningarna av robottillstånd som tillhandahålls till regulatorn, åtgärderna är positionskommandon till ställdonen, och belöningarna specificeras för att framkalla beteendet av intresse. En mängd olika förstärkande inlärningsalgoritmer kan tillämpas på den specificerade policyoptimering problem. Vi valde Trust Region Policy Optimering (TRPO) [22], en policygradientalgoritm som har visat sig lära sig locomotion policys i simulering [54]. Det kräver nästan ingen parameterinställning; vi använder bara standardparametrarna (som anges i [22, 54] ) för alla inlärningssessioner som presenteras i detta dokument. Vi använde en snabb anpassad implementering av algoritmen [55]. Denna effektiva implementering och snabba stela kroppssimulering [41] gjorde det möjligt för oss att generera och bearbeta omkring en kvarts miljard statsövergångar på ungefär fyra timmar. En inlärningssession avslutas om politikens genomsnittliga resultat inte förbättras med mer än en uppgiftsspecifik tröskel inom 300 TRPO iterationer. Observationerna i vår metod bör vara observerbara (dvs. kan härledas från mätningar) på den riktiga roboten och relevanta för uppgiften. De gemensamma vinklarna, hastigheterna och kroppsvridningen är alla observerbara och mycket relevanta. Att mäta kroppsorienteringen är inte enkelt eftersom endast två frihetsgrader i orienteringen kan observeras med en tröghetsmätningsenhet (IMU). Den uppsättning observerbara grader i orienteringen är i bijection med S 2, eller med en enhet vektor, som kan tolkas som riktningen för gravitationsvektorn uttryckt i IMU ram. Vi betecknar denna enhet vektor som ska g. Höjden på basen är inte observerbar, men vi kan uppskatta det från benet kinematics, förutsatt att terrängen är platt. En enkel höjduppskattning baserad på ett 1D Kalman-filter genomfördes tillsammans med den befintliga statsuppskattningen [56]. Men eftersom denna höjduppskattning inte kan användas när roboten inte är på fötter, tog vi bort höjdobservationen när vi tränade för återhämtning från ett fall. Hela observationen vid t = t k definieras som o k = k = nings g, r z, v, en, en, en, en k−1, C, där r z, v, och en är höjd, linjära, och vinkel hastigheter i basen, en och en är positioner och hastigheter i lederna, och är en glest samstat historia, en k‐1 är den tidigare åtgärden, och C är kommandot. Den gemensamma statens historia provtas vid t = t k − 0,01 s och t = t k − 0,02 s. Den gemensamma statens historia var nödvändig för att utbilda en rörelsepolitik. Vi tror att detta beror på det faktum att det möjliggör kontakt upptäckt. Ett alternativt sätt att upptäcka kontakter är att använda kraftsensorer som ger en tillförlitlig uppskattning av kontakttillståndet. Sådana sensorer ökar dock vikten av end-effectors och sänker därmed robotens energieffektivitet. Den exakta historiekonfigurationen hittades empiriskt genom att analysera det slutliga resultatet av policyn. Vår policy ger låga impedans gemensamma positionskommandon, som vi finner vara mycket effektiva i många uppgifter. Peng m.fl. [57] fann att en sådan styrenhet kan överträffa en momentregulator i både träningshastighet och slutkontrollprestanda. Även om det alltid finns en bijectiv karta mellan dem, de två handlingsparameteriseringar har olika smidighet och därmed olika träningssvårigheter. Dessutom har en positionspolicy en fördel i utbildningen eftersom den börjar som stående regulator medan en momentregulator initialt skapar många banor som resulterar i fallande. Därför använder vi policynätverket som en impedanskontrollant. Vårt nätverk ger en enda positionsreferens, som omvandlas till vridmoment med hjälp av fasta vinster (k p = 50 Nm/rad och k d = 0,1 Nm/rad/s) och noll målhastighet. Positionsvinsten väljs till ungefär det nominella vridmomentintervallet (±30 Nm) dividerat med det nominella rörelseområdet (±0,6 rad). Detta säkerställer att policynätverket har ett liknande utgångsområde för vridmoment och position. Hastighetsvinsten väljs för att vara tillräckligt hög för att förhindra oönskad oscillation på den riktiga roboten. Från vår erfarenhet är den slutliga locomotionsprestandan robust mot en liten förändring i vinster. Till exempel att öka positionsvinsten till 80 Nm/rad ändrar inte prestandan märkbart. Observera att positionspolicyn vi använder här skiljer sig från positionsregulatorer som vanligen används inom robotik. Positionsregulatorer är ibland begränsade i prestanda när positionsreferensen är tidsindexerad, vilket innebär att det finns en styrenhet på högre nivå som förutsätter att positionsplanen följs med hög noggrannhet. Detta är den främsta anledningen till att momentregulatorer har blivit populära i legged robotics. Men liksom i många andra RL-litteratur är vår kontrollpolicy statsindexerad och lider inte av begränsningarna hos vanliga PD-kontrollanter. Policyn är tränad för att förutse att positionsfel uppstår och även använder dem för att generera acceleration och interaktionskrafter. Dessutom, tack vare den kinematiska randomiseringen, är en utbildad politik inte enbart beroende av kinematiken: politiken måste oundvikligen lära sig att utöva lämpliga impulser på miljön för rörelse. Detta gör vår policy mer robust eftersom impulsbaserade kontrollmetoder är kända för att vara mer robusta mot systemförändringar och modellers felaktigheter [44]. De styrpolicyer som presenterades i detta arbete tränades endast i simulering. För att träna prestationspolicyer med endast simulerade data följer vi både standard- och problemspecifika utbildningsförfaranden. Här beskriver vi dem i detalj och förklarar logiken bakom dem. I litteraturen har man flera gånger visat på policyer för kontroll av lokomotion. [22, 24, 25]............................................................ Många av de utbildade politikerna uppvisar emellertid inte naturliga rörelser, och det är mycket tveksamt om de kommer att arbeta med fysiska system. Vissa forskare har lagt märke till att naiva metoder inte kan generera naturligt utseende och energieffektiva rörelsebeteenden [58]. Låg straff på gemensamma vridmoment och hastighet resulterar i onaturliga rörelser medan hög straff på dem resulterar i ett stående beteende. Den främsta orsaken till stående beteende är att ett sådant beteende är redan ett bra lokalt minimum när det finns höga straff i samband med rörelse. Vi löste detta problem genom att införa en läroplan: genom att använda en läroplan formar vi det ursprungliga kostnadslandskapet så att politiken är starkt attraherad av en politik för rörelse och sedan polera förslaget för att uppfylla de andra kriterierna. En enkel läroplan skapades genom modulering av koefficienterna för kostnadstermer och störningen via en multiplikativ läroplansfaktor. Vi definierar en läroplansfaktor som beskriver utvecklingen av läroplanen: k c = k 0 på (0, 1) motsvarar början av läroplanen och k c = 1 motsvarar den slutliga svårighetsnivån. De mellanliggande värdena beräknas som k c,j+1 ← (k c,j ) k d, där k d till (0, 1) är förskottsbetalningen, som beskriver hur snabbt den slutliga svårighetsnivån uppnås, och j är iterationsindexet för RR-utbildning. Ordningen av läroplansfaktorer är monotont ökande och asymptotiskt konvergerar till 1 inom givna parameterintervall. Vi misstänker att många andra uppdateringsregler som följer dessa kriterier kommer att resultera i liknande inlärningsresultat. Alla kostnadsvillkor multipliceras med denna läroplansfaktor, utom de kostnadsvillkor som är relaterade till målet (dvs. kostnaden för bashastighetsfel i den kommandokonditionerade och snabba locomotionsuppgiften och basorienteringskostnaden i återhämtningsuppgiften). På så sätt lär sig roboten först hur man uppnår målet och sedan hur man respekterar olika begränsningar. Denna teknik är relaterad till läroplansinlärning introducerad av Bengio et al. [59], som stegvis introducerar prover av fler svårigheter. I stället för att ändra proverna ändrar vi målet att kontrollera träningssvårigheterna. För alla träningspass använder vi k 0 = 0,3 och k d = 0,997. Parametern k 0 bör väljas för att förhindra den ursprungliga tendensen att stå stilla. Den kan enkelt ställas in genom att observera de första hundra iterationerna av RL-algoritmen. Parametern k d väljs så att läroplansfaktorn nästan når 1 (eller 0.9) i slutet av utbildningen. Även om det antal iterationer som krävs inte är känt a priori finns det tillräckligt med publikationer om RL-tillämpningar (inklusive denna) för att ge användarna nödvändiga insikter. Vi har justerat rabattfaktorn γ (ekv. Eq. Vad är det? (1)) separat för varje uppgift baserat på de utbildade kontrollanternas kvalitativa prestanda i simuleringen. För att träna den kommandokonditionerade regulatorn och den snabba regulatorn använde vi γ = 0.9988 vilket motsvarar en halveringstid på 5.77 s. Vi har också framgångsrikt tränat nästan lika performant policys med lägre halveringstid (2 s) men de uppvisar en mindre naturlig stående hållning. För utbildning av recovery controller, använde vi γ = 0,993, vilket motsvarar en halveringstid på 4.93 s. En tillräckligt hög rabattfaktor visar mer naturlig stående hållning på grund av det faktum att det straffar stående vridmoment mer än rörelse (tork, leder hastigheter och andra mängder som uppstår på grund av rörelse). För hög rabattfaktor kan dock leda till en långsam konvergens, så den bör justeras på lämpligt sätt beroende på uppgiften. För träning kommando-konditionerad och hög hastighet locomotion, TRPO avslutade utbildning i nio dagar av simulerad tid, vilket motsvarar fyra timmars beräkning i realtid. För träning för återhämtning från fall tog TRPO 79 dagar simulerad tid, vilket motsvarar elva timmars beräkning i realtid. För kommandokonditionerad och höghastighetslocomotion representerar vi ett kommando med tre önskade kroppshastighetsvärden: framåthastighet, lateral hastighet och svänghastighet. Under utbildningen provtas kommandona slumpmässigt från fördefinierade intervall (se tabellerna S1 och S2 för närmare information) och den kostnad som definieras i avsnitt S3 används. Starttillståndet för roboten provtas antingen från en tidigare bana eller en slumpmässig fördelning, som visas i tabell S3, med lika stor sannolikhet. Detta initieringsförfarande genererar data som innehåller komplicerade tillståndsövergångar och stärker den utbildade controllern. Varje bana varar i 6 sekunder om inte roboten når ett terminaltillstånd tidigare. Det finns två möjligheter till uppsägning: att bryta mot gemensamma gränser och slå marken med basen. Vid uppsägning får agenten en kostnad på 1 och återinvigs. Värdet av termineringskostnaden är inte justerat: eftersom endast förhållandet mellan kostnadskoefficienterna är viktigt för slutresultatet, justerar vi andra kostnadsvillkor för att arbeta med detta terminalvärde. För träning återhämtning från ett fall, är kollisionskropparna i ANYmal modellen randomiserade i storlek och position. Prover som resulterar i orealistiska interna kollisioner avlägsnas. Kostnadsfunktionen och den initiala tillståndsfördelningen beskrivs i avsnitt S4 och figur. S3, respektive. Den speciella initieringsmetoden i avsnitt S4 behövs för att träna för denna uppgift eftersom naiv provtagning ofta resulterar i interpenetration och dynamiken blir orealistisk. I detta syfte tappade vi ANYmal från en höjd av 1,0 m med randomiserade orienteringer och ledpositioner, körde simuleringen för 1,2 s, och använde det resulterande tillståndet som initiering. En annan viktig detalj är att gemensamma hastigheter inte kan mätas direkt på den riktiga roboten. Snarare beräknas de genom att numeriskt differentiera positionssignalen, vilket resulterar i bullriga uppskattningar. Vi modellerar denna brist genom att injicera ett starkt additivt buller (U(‐0,5, 0,5) rad/s) till ledhastighetsmätningarna under träningen. På så sätt ser vi till att den inlärda policyn är robust mot felaktiga hastighetsmätningar. Vi lägger också buller under träningen till den observerade linjära hastigheten (U(‐0.08, 0.08 m/s) och vinkelhastigheten (U(‐0.16, 0,16) m/s) i basen. Resten av observationerna är bullerfria. Det är intressant att notera att avlägsnandet av hastigheter från observationen helt och hållet ledde till ett fullständigt misslyckande att träna, även om policynätverket teoretiskt sett kunde sluta sig till hastigheter som ändliga skillnader i observerade positioner. Vi förklarar detta med det faktum att icke-konvexa nätverksutbildningar gör lämplig input förbehandling viktig. Av liknande skäl är input normalisering nödvändig i de flesta inlärningsprocedurer. Vi genomförde policyn med en MLP med två dolda lager, med 256 och 128 enheter vardera och tanh nonlinearity (Fig. 5).................................................................. Vi fann att icke-linjäriteten har en stark effekt på det fysiska systemet. Prestanda av två tränade policys med olika aktiveringsfunktioner kan vara mycket olika i den verkliga världen även när de utför liknande i simulering. Vår förklaring är att obundna aktiveringsfunktioner, såsom ReLU, kan försämra prestandan på den riktiga roboten, eftersom åtgärder kan ha mycket stor omfattning när roboten når stater som inte besöktes under utbildningen. Gränsade aktiveringsfunktioner, som t.ex. tanh, ger mindre aggressiva banor när de utsätts för störningar. Vi anser att detta gäller även för softsign, men det testas inte i politiska nätverk på grund av en genomförandefråga i vår RL-ram [55]. Vi använder ANYmal robot [5], visas i steg fyra av Bild. 1, För att visa den verkliga tillämpligheten av vår metod. ANYmal är en fyrsidig robot i hundstorlek som väger cirka 32 kg. Varje ben är ca 55 cm långt och har tre aktiverade frihetsgrader, nämligen Hip Abduction/Adduction (HAA), Hip Flexion/Extension (HFE) och Knee Flexion/Extension (KFE). ANYmal är utrustad med 12 SEA [60, 61]. En SEA består av en elektrisk motor, en transmission med hög utväxling, ett elastiskt element och två roterande kodare för att mäta fjäderns deformation och utgångsläge. I detta arbete använder vi en gemensam nivå PD controller med låga återkopplingsvinster på den gemensamma nivån ställdon modul av ANYmal robot. Dynamiken hos ställdonen innehåller flera komponenter i följd, enligt följande. För det första omvandlas positionskommandot till önskat vridmoment med hjälp av en PD-regulator. Därefter beräknas den önskade strömmen med hjälp av en PID-regulator från önskat vridmoment. Den önskade strömmen omvandlas sedan till fasspänning med hjälp av en fältorienterad styrenhet (FOC), som producerar vridmomentet vid inmatningen av transmissionen. Utgången av transmissionen är ansluten till ett elastiskt element vars deformation slutligen genererar vridmoment vid leden [39]. Denna mycket komplexa dynamik inför många dolda interna stater som vi inte har direkt tillgång till och komplicerar vårt kontrollproblem. Efter att ha skaffat en parameteruppsättning för en tränad policy från vår hybridsimulering var utbyggnaden på det verkliga systemet okomplicerad. En anpassad MLP-implementation och den utbildade parameteruppsättningen anpassades till robotens inbyggda PC. Detta nätverk utvärderades vid 200 Hz för kommandokonditionerad/höghastighetslocomotion och vid 100 Hz för återhämtning från fall. Vi fann att prestandan var förvånansvärt okänslig för kontrollfrekvensen. Till exempel var återhämtningsrörelsen tränad vid 20 Hz men prestandan var densamma när vi ökade kontrollhastigheten upp till 100 Hz. Detta var möjligt eftersom flip-up beteenden innebär låga gemensamma hastigheter (för det mesta under 6 rad / s). Mer dynamiska beteenden (t.ex., locomotion) kräver ofta en mycket högre kontrollhastighet för att ha en adekvat prestanda. Högre frekvens (100 Hz) användes för experiment eftersom det gjorde mindre ljudljud. Även vid 100 Hz använder utvärderingen av nätverket endast 0,25 % av den beräkning som finns tillgänglig på en enda CPU-kärna. Controllers som presenteras i denna uppsats, tränade i några timmar i simulering, överträffade den bästa befintliga modellbaserade controllern som körs på samma robot, som designades och trimmades under många år. Våra inlärda lokomotionspolicyer gick snabbare och med högre precision samtidigt som vi använde mindre energi, vridmoment och beräkning. Återhämtningsregulatorn uppvisar dynamisk överrullning med flera ospecificerade kontakter med miljön; ett sådant beteende har inte uppnåtts på en riktig robot av jämförbar komplexitet med någon av de befintliga optimeringssystem. Det framlagda tillvägagångssättet är inte i grunden begränsat till kända och enkla miljöer. Vi ser de resultat som presenteras i detta dokument som ett steg mot omfattande locomotion controllers för motståndskraftiga och mångsidiga legged robotar. | I vårt arbete använder vi också ett neuralt nätverk för att modellera motordynamiken, men vår metod förlitar sig inte på high-end ställdon för att generera mark-truth vridmomentdata som i REF. | 58,031,572 | Learning agile and dynamic motor skills for legged robots | {'venue': 'Science Robotics 4.26 (2019): eaau5872', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science', 'Mathematics']} | 4,583 |
Det växande behovet av märkta träningsdata har gjort crowdsourcing till en viktig del av maskininlärningen. Kvaliteten på crowdsourced etiketter påverkas dock negativt av tre faktorer: 1) arbetarna är inte experter, 2) arbetarnas incitament är inte i linje med dem som begär, och 3) gränssnittet tillåter inte arbetstagare att förmedla sina kunskaper på ett korrekt sätt, genom att tvinga dem att göra ett enda val bland en uppsättning alternativ. I detta dokument tar vi itu med dessa frågor genom att införa godkännanderöstning för att utnyttja kompetensen hos arbetstagare som har delvis kunskap om det sanna svaret, och koppla samman den med en ("helt korrekt") incitamentskompatibel ersättningsmekanism. Vi visar rigorösa teoretiska garantier för att vår mekanism är optimal tillsammans med en enkel axiomatisk karakterisering. Vi genomför också empiriska studier på Amazon Mechanical Turk som validerar vår strategi. | Det bör noteras att incitament för arbetstagare, som inte är anpassade till dem som begär det, påverkar kvaliteten på crowdsourcing-arbetet. | 14,579,912 | Approval Voting and Incentives in Crowdsourcing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Economics', 'Mathematics']} | 4,584 |
....................................... Vi presenterar en strategi för att approximera bildbearbetningsoperatörer. Denna siffra visar resultaten för fem operatörer: L 0 lutning minimering, flerskalig ton manipulation, fotografisk stil överföring, icke-lokal dehazarding, och pennteckning. Alla operatörer är ungefärliga enligt samma modell, med samma uppsättning parametrar och samma flöde av beräkningar. Vi presenterar en strategi för att påskynda ett stort antal aktörer inom bildbehandling. Vår strategi använder ett helt konvolutionellt nätverk som är utbildad på input-output par som visar operatörens åtgärder. Efter utbildningen behöver den ursprungliga operatören inte köras alls. Det utbildade nätverket fungerar med full upplösning och körs i konstant tid. Vi undersöker nätverksarkitekturens effekt på approximationsnoggrannhet, körtid och minnesavtryck, och identifierar en specifik arkitektur som balanserar dessa överväganden. Vi utvärderar det framlagda tillvägagångssättet på tio avancerade bildbehandlingsoperatörer, inklusive flera varianter * Gemensamma första författare modeller, flerskalig ton och detalj manipulation, fotografisk stil överföring, icke-lokal dehazaring, och icke-fotorealistisk stilisering. Alla operatörer är ungefärliga enligt samma modell. Experiment visar att det framlagda tillvägagångssättet är betydligt mer korrekt än tidigare approximeringssystem. Det ökar approximationsnoggrannheten mätt med PSNR mellan de utvärderade operatörerna med 8,5 dB på datauppsättningen MIT-Adobe (från 27,5 till 36 dB) och minskar DSSIM med en multiplikativ faktor på 3 jämfört med det mest exakta tidigare approximeringssystemet, samtidigt som det är snabbast. Vi visar att våra modeller generaliserar över datauppsättningar och över resolutioner, och undersöker ett antal förlängningar av det presenterade tillvägagångssättet. | I REF används en FCN för att lära sig approximationer till olika globala bildbehandlingsoperatörer såsom fotografisk stil, icke-lokal avfaring och pennteckning. | 12,093,452 | Fast Image Processing with Fully-Convolutional Networks | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 4,585 |
På senare tid har mycket uppmärksamhet ägnats åt grovset med multigranulering (MGRS) och olika typer av grovset med multigranulering har utvecklats ur olika synvinklar. I detta dokument föreslår vi fyra typer av multi-granulation täcker grov uppsättning (MGCRS) modeller under täcker approximation utrymme, där ett mål koncept approximeras genom att använda maximal eller minimal deskriptorer av objekt i ett givet universum av diskurs U. Sedan undersöker vi ett antal grundläggande egenskaper hos de fyra typerna av MGCRS-modeller, och diskuterar relationer och skillnader mellan den klassiska MGRS-modellen och våra MGCRS-modeller. Dessutom studeras villkoren för två olika MGCRS-modeller som producerar identiska lägre och övre approximationer av ett målkoncept i ett omfattande approximationsområde. Slutligen undersöks förhållandet mellan de fyra typerna av MGCRS-modeller. Vi finner att för alla delmängd X på U, de lägre approximationer av X och de övre approximationer av X under de fyra typerna av MGCRS modeller kan konstruera en lattice, om vi anser den binära relationen av inkludering. | Liu m.fl. REF tillhandahöll grovset med flersprängning i olika sammanhang. | 40,646,335 | On multi-granulation covering rough sets | {'venue': 'Int. J. Approx. Reason.', 'journal': 'Int. J. Approx. Reason.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,586 |
Abstract-I detta dokument föreslår vi en agentbaserad hierarkisk makthanteringsmodell i ett kraftdistributionssystem som består av flera mikrogrider (MG). På den lägre nivån av modellen, flera MGs förhandla med varandra för att samarbeta få en rättvis, och Pareto-optimal lösning på deras power management problem, med användning av konceptet Nash förhandlingslösning och med hjälp av en distribuerad optimeringsram. På den högsta nivån i modellen samverkar en elleverantör av distributionssystem, t.ex. ett allmännyttigt företag, med både MG:s kluster och grossistmarknaden. Målet för allmännyttiga företag är att underlätta elutbyte mellan det regionala distributionsnätet bestående av flera MG och grossistmarknaden för att uppnå sina egna privata mål. Elbörsen styrs genom dynamisk energiprissättning på distributionsnivå, på dagen före- och i realtid. För att genomföra energiprissättning på nyttobolagsnivå används en iterativ maskininlärningsmekanism, där nyttobolaget utvecklar en priskänslighetsmodell för MG:s samlade respons på prissignalen i detaljistledet genom en inlärningsprocess. Denna lärda modell används sedan för att utföra optimal energiprissättning. För att kontrollera dess tillämplighet testas den föreslagna beslutsmodellen på ett system med flera MG, där varje MG har olika belastnings-/genereringsdata. Index Terms-Microgrids, förhandlingsspel, distribuerad optimering, agentbaserad modellering, power management. | K. Dehghanpour och H. Nehrir föreslår en agent-baserad hierarkisk makthantering protokoll, kallas den kooperativa agent-baserade Hierarkical Bargaining (CAHB) system, för flera micro-grids REF. | 57,361,676 | An Agent-Based Hierarchical Bargaining Framework for Power Management of Multiple Cooperative Microgrids | {'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,587 |
Abstrakt. Att utnyttja full beräkningskraft hos nuvarande fler och mer hierarkiska multiprocessormaskiner kräver en mycket noggrann fördelning av trådar och data mellan den underliggande icke-uniforma arkitekturen. Tyvärr, de flesta operativsystem ger bara en dålig schemaläggning API som inte tillåter program att överföra värdefulla schemaläggning tips till systemet. I ett tidigare papper [10] visade vi att användning av en bubblabaserad trådschemaläggare avsevärt kan förbättra applikationernas prestanda på ett portabelt sätt. Eftersom multitrådade applikationer har olika schemaläggningskrav finns det dock ingen universell schemaläggare som kan uppfylla alla dessa behov. I detta dokument presenterar vi ett ramverk som gör det möjligt för schemalägga experter att genomföra och experimentera med anpassade tråd schemaläggare. Det ger ett kraftfullt API för dynamisk distribution av bubblor bland maskinen på ett högnivå, portabelt och effektivt sätt. Flera exempel visar hur experter sedan kan utveckla, felsöka och justera sina egna bärbara bubbla schemaläggare. | BubbleSched REF tillhandahöll ett ramverk för användare att anpassa tråd schemaläggare och spårningsverktyg. | 14,039,212 | Building Portable Thread Schedulers for Hierarchical Multiprocessors: the BubbleSched Framework | {'venue': 'In EuroPar’07, volume 4641 of LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,588 |
Abstrakt. Det länkade datamolnet växer snabbt när fler och fler kunskapsbaser blir tillgängliga som länkade data. Kunskapsbaserade tillämpningar måste förlita sig på effektiva implementeringar av frågespråk som SPARQL för att få tillgång till den information som finns i stora datauppsättningar som DBpedia, Freebase eller ett av de många domänspecifika RDF-arkiven. Emellertid, hämtning av specifika fakta från en RDF dataset ofta hindras av bristen på schema kunskap, som skulle möjliggöra frågetid slutsats eller materialisering av implicita fakta. Till exempel, om en RDF graf innehåller information om filmer och skådespelare, men endast Titanic med Leonardo DiCaprio anges uttryckligen, en fråga för alla filmer Leonardo DiCaprio agerade i kanske inte ge det förväntade svaret. Endast om de två egenskaperna med och agerat i förklaras omvänt av ett lämpligt schema, kan den felande länken mellan RDF-entiterna härledas. I detta arbete presenterar vi en strategi för att berika schemat för alla RDF dataset med egendom axioms genom statistisk schema induktion. Skalbarheten i vårt genomförande, som bygger på föreningsregeln gruvdrift, samt kvaliteten på de automatiskt förvärvade egendom axioms visas av en utvärdering av DBpedia. Nyckelord: Linked Data, Ontology Learning, OWL2, Property Attribut För närvarande växer mängden information som finns tillgänglig som Linked Data på webben snabbt. Stora databaser som DBpedia eller Freebase innehåller redan data om många olika ämnen, och fungerar därmed som kristalliseringspunkter för att inkludera nya data och domänspecifika kunskapsdatabaser. Dess enorma tillväxt både vad gäller storlek och täckning gör Linked Data mer och mer tilltalande för olika typer av applikationer. Ett problem med många länkade datamängder är dock fortfarande bristen på ett lämpligt schema som skulle kunna användas för att dra slutsatser om implicit information och för att validera överensstämmelsen hos nytillkomna data. Den semantiska webbarkitekturen förutser formella ontologier som en grund för att härleda implicit information och dataverifiering. Skapandet av sådana ontologier är emellertid en komplicerad och tidskrävande process och storleken och heterogeniteten hos länkade datakällor gör det manuellt skapande av formella ontologier till ett orealistiskt scenario. Det finns vissa insatser för att skapa schemainformation för länkade data. Exempel är Johanna Völker som finansieras genom ett Margarete-von-Wrangell-stipendium från Europeiska socialfonden (ESF) och ministeriet för vetenskap, forskning och konst Baden-Württemberg. | Fleischhacker och kollegor, till exempel, använda statistiska schema induktion i den strategi de föreslog för att berika schemat för alla RDF dataset med egendom axioms REF. | 16,522,948 | Mining RDF Data for Property Axioms | {'venue': 'OTM Conferences', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,589 |
Abstract-Continuous-time Markov kedjor (CTMCs) har i stor utsträckning använts för att bestämma systemets prestanda och pålitlighet egenskaper. Deras analys gäller oftast beräkningen av sannolikheten för steady-state och transient-state. Detta dokument introducerar en förgrening temporal logik för att uttrycka i realtid probabilistiska egenskaper på CTMCs och presenterar ungefärlig modell kontroll algoritmer för denna logik. Logiken, en förlängning av den kontinuerliga stokastiska logiken CSL av Aziz et al., innehåller en tidsbunden fram till operatören att uttrycka probabilistiska timing egenskaper över vägar samt en operatör för att uttrycka steady-state sannolikheter. Vi visar att modellkontrollproblemet för denna logik minskar till ett system av linjära ekvationer (för obunden fram till och stationär operatör) och ett Volterra integral ekvationssystem (för tidsbunden fram till). Vi visar sedan att problemet med modellkontroll tidsbunden tills egenskaper kan reduceras till problemet med att beräkna tillfälliga tillstånd sannolikheter för CTMCs. Detta möjliggör verifiering av probabilistiska timing egenskaper genom effektiva tekniker för transient analys för CTMCs såsom uniformisering. Slutligen visar vi att en variant av klumplikvärdighet (bisimulation), ett välkänt begrepp för sammanslagning av CTMC, bevarar giltigheten av alla formler i logiken. | Dessutom, vilket framgår av t.ex. I REF för stokastisk modellkontroll kan den globala modellkontrollalgoritmen reduceras till kombinationer av befintliga välkända och optimerade algoritmer för CTMC, t.ex. transient analys. | 15,981,103 | Model-checking algorithms for continuous-time Markov chains | {'venue': 'IEEE TRANSACTIONS ON SOFTWARE ENGINEERING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,590 |
Det första årtiondet av Genome Wide Association Studies (GWAS) har avslöjat en mängd sjukdom-2 tillhörande varianter. Två viktiga derivat kommer att vara översättningen av denna information till en flerskalig 3 förståelse av patogena varianter, och utnyttja befintliga data för att öka kraften i befintliga och 4 framtida studier genom prioritering. Vi utforskar kantförutsägelse på heterogena nätverk-grafer 5 med flera nod och kanttyper-för att utföra båda uppgifterna. Först byggde vi ett nätverk 6 med 18 nodtyper-gener, sjukdomar, vävnader, patofysiologier, och 14 MSigDB (molekylära signaturer 7 databas) samlingar-och 19 kanttyper från hög genomströmning offentligt tillgängliga resurser. Från detta 8 nätverk bestående av 40.343 noder och 1.608.168 kanter, extraherade vi funktioner som beskriver topologi 9 mellan specifika gener och sjukdomar. Därefter tränade vi en modell från GWAS-föreningar och förutspådde 10 sannolikheten för association mellan varje proteinkodande gen och var och en av 29 välstuderade komplexa sjukdomar. Modellen, som uppnådde 132-faldig berikning i precision vid 10% recall, överträffade alla individ-12 ual domän, vilket belyser fördelarna med integrativa metoder. Vi identifierade pleotropi, transkriptionella 13 signaturer av perturbationer, vägar, och proteininteraktioner som grundläggande mekanismer som förklarar 14 pathogenesis. Vår metod framgångsrikt förutspådde resultaten (med AUROC = 0,79) från en undanhållen mul-15 tiple skleros (MS) GWAS trots att börja med endast 13 tidigare associerade gener. Slutligen kombinerade vi 16 nätverksprognoser med statistiska associationsbevis för att föreslå fyra nya MS-gener, varav tre 17 (JAK2, REL, RUNX3 ) validerade på den maskerade GWAS. Dessutom ger våra förutsägelser 18 biologiskt stöd som belyser REL som orsaksgenen inom dess genrika locus. Användare kan bläddra bland alla 19 förutsägelser online (http://het.io). Heterogena nätverk kanten förutsägelse effektivt prioriterade genetiska 20 föreningar och ger en kraftfull ny strategi för data integration över flera domäner. 21 Författare Sammanfattning För komplexa mänskliga sjukdomar, identifiera gener som hyser känslighetsvarianter har tagit på medicinsk 23 betydelse. Sjukdomsassocierade gener ger ledtrådar för att klargöra sjukdom etiologi, förutsäga sjukdom 24 risk, och belysa terapeutiska mål. Här utvecklar vi en metod för att förutsäga om en given gen 25 och sjukdom är associerade. För att fånga den mångfald av biologiska enheter som ligger till grund för patogenesen har vi 26 konstruerat ett heterogent nätverk som innehåller flera nod- och kanttyper. Vi byggde på en teknik 27 utvecklad för social nätverksanalys, som omfattar olika datakällor för att göra förutsägelser från 28 heterogena nätverk. Med hjälp av kompendiet av associationer från genom omfattande studier, lärde vi oss 29 de inflytelserika mekanismer som ligger till grund för patogenesen. Våra fynd ger ett nytt perspektiv om 30 förekomsten av genomträngande pleiotropi över komplexa sjukdomar. Dessutom föreslår vi transkriptionella 31 signaturer av perturbationer är en underutnyttjad resurs bland prioriteringar. För multipel 32 skleros visade vi vår förmåga att prioritera framtida studier och upptäcka nya känslighetsgener. Forskare kan använda dessa förutsägelser för att öka den statistiska kraften i sina studier, för att föreslå 34 kausala gener från en uppsättning av kandidater, eller för att generera evidensbaserade experimentella hypoteser. Under det senaste årtiondet har genomomfattande associationsstudier (GWAS) etablerats som huvudstrategi 37 för att kartlägga genetisk känslighet i dussintals komplexa sjukdomar och fenotyper. Trots de obestridliga 38 framgångarna med detta tillvägagångssätt står forskarna nu inför utmaningen att maximera det vetenskapliga 39 bidraget från befintliga GWAS-datauppsättningar, vars åtaganden utgjorde en betydande investering på 40 mänskliga och monetära resurser från samhället i stort. Ett centralt antagande i GWAS är att varje region i genomet (och därmed varje gen) är a-42 priori lika sannolikt att vara associerad med fenotypen i fråga. Som ett resultat, små effektstorlekar och 43 multipla jämförelser begränsar hastigheten för upptäckt. Men rationella prioriteringar kan ge 44 en ökning av studiekraft samtidigt undvika begränsningar och kostnader i samband med utökad provtagning. En 45 en sådan väg framåt är den nuvarande trenden att analysera det kombinerade bidraget av känslighetsvarianter 46 i samband med biologiska vägar, snarare än enstaka SNPs [1, 2]. En mindre utforskad men potentiellt 47 avslöjande strategi är integreringen av olika källor av data för att bygga mer exakt och omfattande 48 modeller av sjukdomskänslighet. 49 Flera strategier har försökt identifiera de mekanismer som ligger till grund för patogenesen och använda 50 dessa insikter för att prioritera gener för genetiska associationsanalyser. Gene-set anrikning analyser iden-51 tify prevalent biologiska funktioner bland gener som ingår i sjukdomsassocierade loci [3]. Gene nätverk 52 närmar sig söka efter bostadsområden av gener där sjukdomsassocierade loci aggregat [4]. Litteratur min-53 ing tekniker syftar till att krönika släktskapen av gener för att identifiera en subgrupp av högt relaterade associerade 54 gener [5]. Dessa strategier bygger i allmänhet på användartillhandahållen loci som enda insats och omfattar inte 55 bredare sjukdomsspecifika kunskaper. Vanligtvis är andelen av genom-omfattande betydande upptäckter i en 56 given GWAS låg, vilket lämnar lite hög förtroendesignal för frö-baserade metoder att bygga från. För att övervinna denna begränsning syftade vi här till att karakterisera förmågan hos olika informationsområden 58 att identifiera patogena varianter över hela kompendiet av komplexa sjukdomsföreningar. Med hjälp av detta 59 flerskaliga tillvägagångssätt utvecklade vi ett ramverk för att prioritera både befintliga och framtida GWAS analyser 60 och lyfta fram kandidatgener för ytterligare analys. För att ta itu med detta problem använde vi oss av en metod som naturligt integrerade olika informationsområden 62. Heterogena nätverk är en typ av nätverk som innehåller flera typer av enheter (nodes) 63 och relationer (kanter), och ger en datastruktur som kan uttrycka mångfald på ett intuitivt och 64 skalbart sätt. Dagens teknik för nätverksanalys har dock utvecklats för 65 homogena nät och är inte direkt extensibel för heterogena nät. Dessutom befinner sig forskning 66 om heterogena nätverksanalyser i ett tidigt skede [6]. En av de få befintliga metoderna för 67 predikterande kanter på heterogena nätverk utvecklades av forskare som studerar samhällsvetenskap till 68 förutsäger framtida medförfattare [7]. I detta arbete utökade vi denna metod för att förutsäga sannolikheten 69 att det finns ett samband mellan en gen och sjukdom. 70 4 Resultat 71 Skapa ett heterogent nätverk för att integrera diverse information do-72 nät 73 Med hjälp av allmänt tillgängliga databaser och standardiserade ordförråd, konstruerade vi ett heterogent nät-74 arbete med 40,343 noder och 1.608,168 kanter (Figur 1). Databaser valdes ut baserat på kvalitet, 75 återanvändbarhet och genomströmning. Nätverket utformades för att koda enheter och relationer som är relevanta 76 för patogenesen. Nätverket innehöll 18 nodtyper (metanoder) och 19 kanttyper (metakanter), 77 visades i figur S2A. Enheter representerade av metanoder bestod av sjukdomar, gener, vävnader, pato-78 | Den första versionen av Hetionet användes för att prioritera gener från loci i samband med multipel skleros i GWAS REF. | 196,645,177 | Heterogeneous Network Edge Prediction: A Data Integration Approach to Prioritize Disease-Associated Genes | {'venue': None, 'journal': 'bioRxiv', 'mag_field_of_study': ['Biology']} | 4,591 |
Standarden förstärkning inlärningsmetoder syftar till att bemästra ett sätt att lösa en uppgift, medan det kan finnas flera nära-optimala strategier. Att kunna identifiera denna samling av nästan optimala strategier kan göra det möjligt för en domänexpert att effektivt utforska utrymmet för rimliga lösningar. Tyvärr, befintliga metoder som kvantifierar osäkerhet över policyer är inte ytterst relevant för att hitta policyer med kvalitativt skilda beteenden. I detta arbete formaliserar vi skillnaden mellan politik som en skillnad mellan fördelningen av banor som framkallas av varje politik, vilket uppmuntrar till mångfald när det gäller både statsbesök och handlingsval. Vi härleder en gradientbaserad optimeringsteknik som kan kombineras med befintliga policy gradientmetoder för att nu identifiera olika samlingar av väl fungerande policyer. Vi visar vår inställning till riktmärken och en hälso- och sjukvårdsuppgift. | REF lär sig samlingar av olika policyer med hjälp av en skillnad mellan fördelningen av banor som induceras av policyer. | 173,991,177 | Diversity-Inducing Policy Gradient: Using Maximum Mean Discrepancy to Find a Set of Diverse Policies | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,592 |
Abstract-I detta dokument tillhandahåller vi en omfattande systemmodell av ett trådlöst sensornätverk (WPSN) baserat på experimentella resultat på en verklig testbädd. I WPSN drivs en sensornod trådlöst av RF-energiöverföringen från en dedikerad RF-kraftkälla. Vi definierar beteendet hos varje komponent som består av WPSN och analyserar interaktionen mellan dessa komponenter för att ställa in en realistisk WPSN-modell ur systematisk synvinkel. Mot detta genomför vi en verklig och fullfjädrad testbädd för WPSN och genomför omfattande experiment för att erhålla modellparametrar och validera den föreslagna modellen. Baserat på denna WPSN-modell föreslår vi ett energihanteringssystem för WPSN, som maximerar RF-energiöverföringseffektiviteten samtidigt som den garanterar energineutral drift. Vi genomför det föreslagna energiledningssystemet i en verklig testbädd och visar dess funktion och prestanda. | I REF har vi tillhandahållit en omfattande systemmodell av WPSN med en enda sändningsantenn baserad på de experimentella resultaten på en verklig testbädd. | 7,225,008 | Experiment, Modeling, and Analysis of Wireless-Powered Sensor Network for Energy Neutral Power Management | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,593 |
Abstract-På grund av den snabba slutsatsen och bra prestanda, har diskriminerande inlärningsmetoder studerats brett i bilden denoiserande. Dessa metoder lär sig dock oftast en särskild modell för varje bullernivå, och kräver flera modeller för att denoisera bilder med olika bullernivåer. De saknar också flexibilitet när det gäller att hantera rumsligt variationsbuller, vilket begränsar deras tillämpning i praktisk denoisering. För att ta itu med dessa frågor presenterar vi ett snabbt och flexibelt denoiserande konvolutionellt neuralt nätverk, nämligen FFDNet, med en tunnare bullernivåkarta som ingång. Den föreslagna FFDNet fungerar på ner sampled sub-images för att påskynda inference, och antar ortogonal legalisering för att förbättra generalisering förmåga. I motsats till de befintliga diskriminerande denoizers, har FDNet flera önskvärda egenskaper, inklusive (i) förmågan att hantera ett brett spektrum av bullernivåer (dvs., [0, 75]) effektivt med ett enda nätverk, (ii) förmågan att ta bort rumsligt variant buller genom att ange en icke-uniform bullernivå karta, och (iii) snabbare hastighet än riktmärke BM3D även på CPU utan att offra denoiserande prestanda. Omfattande experiment på syntetiska och riktiga bullriga bilder utförs för att utvärdera FFDNet i jämförelse med toppmoderna denoisers. Resultaten visar att FFDNet är effektivt och effektivt, vilket gör det mycket attraktivt för praktiska denoiserande tillämpningar. | I REF, Zhang et al. utnyttja en bullernivåkarta för att underlätta utförandet av ett icke-blindt denoiserande nät. | 10,514,149 | FFDNet: Toward a Fast and Flexible Solution for CNN based Image Denoising | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']} | 4,594 |
Ansiktsjustering syftar till att uppskatta platser för en uppsättning landmärken för en given bild. Detta problem har fått stor uppmärksamhet, vilket framgår av den senaste tidens framsteg i både metod och prestanda. Men de flesta av de befintliga verken varken uttryckligen hanterar ansiktsbilder med godtyckliga poser, eller utför storskaliga experiment på icke-frontala och profilansiktsbilder. För att ta itu med dessa begränsningar föreslås i detta dokument en ny algoritm för ansiktsjustering som uppskattar både 2D- och 3D-landmärken och deras 2D-visibilitet för en ansiktsbild med en godtycklig ställning. Genom att integrera en 3D-punktfördelningsmodell, är en kaskad kopplad regressator metod utformad för att uppskatta både kamerans projektion matris och 3D landmärken. Dessutom gör 3D-modellen det möjligt för oss att automatiskt uppskatta 2D-markmärkets visibiliteter via ytnormal. Vi använder en betydligt större samling all-pose ansiktsbilder för att utvärdera vår algoritm och visa överlägsna prestationer än de senaste metoderna. | Jourabloo och Liu föreslog nyligen PIFA REF som uppskattar 3D landmärken för stora pose ansikte anpassning genom att integrera en 3D-punkt distributionsmodell med en kaskad kopplade angripare. | 13,877,746 | Pose-Invariant 3D Face Alignment | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 4,595 |
Med tanke på en punktuppsättning S och en okänd metriska d på S, studerar vi problemet med att effektivt dela upp S i k-kluster samtidigt som vi frågar några avstånd mellan punkterna. I vår modell antar vi att vi har tillgång till en kontra alla frågor som med tanke på en punkt S returnerar avstånden mellan s och alla andra punkter. Vi visar att med tanke på ett naturligt antagande om strukturen i instansen, kan vi effektivt hitta en korrekt kluster med hjälp av endast O (k) avstånd frågor. Vår algoritm använder en aktiv urvalsstrategi för att välja en liten uppsättning punkter som vi kallar landmärken, och tar endast hänsyn till avstånden mellan landmärken och andra punkter för att producera en klusterbildning. Vi använder vårt förfarande för att samla proteiner efter sekvenslikhet. Denna inställning passar fint vår modell eftersom vi kan använda en snabb sekvens databas sökprogram för att fråga en sekvens mot en hel datauppsättning. Vi genomför en empirisk studie som visar att även om vi frågar en liten del av avstånden mellan punkterna, producerar vi kluster som är nära en önskad kluster som ges av manuell klassificering. | En kontra alla frågor för klusterering studerades av Voevodski et al. Hoppa över det. | 3,766,652 | Efficient Clustering with Limited Distance Information | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,596 |
A b s t r a c t Mål: Att avgöra om automatisk klassificering av dokumentciteringar kan vara till nytta för att minska den tid som experter som granskar tidskriftsartiklar använder för att uppdatera systematiska utvärderingar av läkemedelsklassens effektivitet för behandling av sjukdomar. Design: En testsamling byggdes med hjälp av de kommenterade referensfilerna från 15 systematiska utvärderingar av läkemedelsklass. Ett röstningsperceptronbaserat automatiserat citeringssystem konstruerades för att klassificera varje artikel som innehållande högkvalitativa, läkemedelsklassspecifika bevis eller inte. Korsvalideringsförsök utfördes för att utvärdera prestanda. Mätningar: Precision, återkallande och F-mätning utvärderades vid en rad urvalsviktningar. Arbete som sparats över provtagning vid 95 % återkallande användes som värdemått för granskningsprocessen. Resultat: En minskning av antalet artiklar som kräver manuell granskning hittades för 11 av de 15 ämnen som undersökts. För tre av ämnena var minskningen 50 % eller mer. Slutsats: Automatisk klassificering av dokumentcitat kan vara ett användbart verktyg för att upprätthålla systematiska utvärderingar av läkemedelsbehandlingens effektivitet. Det krävs ytterligare arbete för att förfina klassificeringssystemet och fastställa det bästa sättet att integrera systemet i produktionen av systematiska utvärderingar. Bruket av evidensbaserad medicin (EBM) innebär att tillämpa de bästa och mest aktuella bevisen, i form av publicerad litteratur, på beslutsfattandet inom patientvården. Medan den ursprungliga visionen av EBM verkade kräva läkare direkt söker primärlitteratur för bevis som är tillämpliga på deras patienter, den moderna uppfattningen av EBM är starkt beroende av destillationer av främst litteratur i form av systematiska utvärderingar (även kallade evidensrapporter), 3,4 såsom de som produceras av Cochrane Collaboration och evidensbaserade Practice Centers (EPCs) av Byrån för hälso- och sjukvård forskning och kvalitet (AHRQ). 5 AHRQ-rapporter är tillgängliga för allmänheten (http://www.ahrq.gov/clinic/ epcindex.htm/) och sammanfattningar av Cochrane-granskningarna finns också tillgängliga (http://www.cochrane.org/reviews/). Epidemiologi vid Oregon Health and Science University är hem för en av AHRQ EPC (http://www.ohsu.edu/epc/). EPC har fokuserat på att tillhandahålla omfattande litteraturöversikter som jämför klasser av läkemedel som används för att behandla särskilda tillstånd. Hittills har Oregon EPC, Southern California EPC, och Research Triangle Institute/University of North Carolina (RTI/UNC) EPC slutfört och publicerat 15 evidensrapporter, utvärdera effekten av läkemedel i läkemedelsklasser såsom orala opioider, skelettmuskelrelaxantia, och östrogenersättning. [6] [7] [8] Att göra dessa bevisrapporter heltäckande och hålla dem uppdaterade är en arbetsintensiv process. 9,10 Liksom alla systematiska utvärderingar, de av drogklasser identifiera tusentals artiklar som måste lokaliseras, triageras, ses över och sammanfattas. Potentiellt relevanta artiklar finns med hjälp av en iterativt förfinad frågebaserad sökning av biomedicinska elektroniska databaser, såsom MEDLINE och Embase. Dessa frågor utvecklas genom att börja med de optimerade kliniska frågor som föreslås och studeras av Haynes et al. [11] [12] [13] och förfinad på grundval av erfarenheterna och kunskaperna från EPC:s personal. För de 15 systematiska läkemedelsrecensioner som nämns ovan skapade personalen frågor om randomiserade kontrollerade prövningar genom att kombinera villkoren för hälsotillstånd och interventioner med Haynes et al. Forskningsmetodikfilter för terapi. Artiklarna tredubblas sedan i en process i två steg. Först granskas det abstrakta, och om det abstrakta uppfyller integrationskriterierna läses hela artikeln. Om den fullständiga textartikeln visar sig uppfylla kriterierna för införande sammanfattas och inkluderas de bevis som presenteras i artikeln i EPC-rapporten. Framsteg i klinisk utvärdering och farmakologi kräver att utvärderingarna av EPC-läkemedel uppdateras regelbundet. Detta leder oundvikligen till arbetsbelastningen i centrum ökar över tid som granskare måste både producera nya recensioner samt övervaka och uppdatera de gamla. Processen för att skapa dessa drogrecensioner är mycket metodisk. Granskarna för detaljerade register över sina sökmetoder, de artiklar för vilka de har granskat abstracts och läst fulltext, och slutligen, vilka artiklar innehåller tillräckligt hög kvalitet bevis för att motivera införande i den systematiska granskningen. Denna process motiverade vårt intresse av att använda dessa data för att utbilda ett automatiserat klassificeringssystem som skulle ha möjlighet att förutsäga vilka nya artiklar som mest sannolikt skulle inkludera bevis som motiverar införande i en översyn uppdatering. Ett automatiserat klassificeringssystem skulle fungera för att triage (eller filtrera) nya artiklar som matchar sökkriterierna i den ursprungliga studien. Detta skulle vara till nytta för granskarna på flera sätt. För det första, genom att övervaka antalet nya artiklar om ett visst ämne som innehåller bevis av hög kvalitet (enligt klassificeringssystemet), skulle granskarna få en enkel och tydlig indikation när det finns väsentlig ny information om ett ämne och rapporten behöver revideras. För det andra skulle klassificeringssystemet kunna minska antalet artiklar som kräver manuell granskning och därmed minska ett av de mest tidskrävande stegen i utarbetandet eller uppdateringen av en systematisk översyn. För det tredje kan klassificering av de mest sannolika dokumenten som innehåller bevis av hög kvalitet hjälpa granskare att prioritera vilka artiklar som läses först och som läses endast om det finns tillräckligt med tid. Detta dokument presenterar utredarnas tillämpning av ett maskininlärningsbaserat klassificeringssystem för att minska det arbete som krävs och förbättra effektiviteten i att hålla läkemedelsrecensioner uppdaterade. Vi är inte medvetna om något tidigare arbete som tillämpar automatiserad klassificering av litteratur för ämnesspecifika evidensbaserade läkemedels- eller terapirecensioner liknande det arbete vi presenterar här. Den närmaste forskningen är arbetet av Aphinyanaphongs et al., 14 som har publicerat arbete undersöka användningen av maskininlärning algoritmer för att förbättra informationshämtning av högkvalitativa artiklar användbara för evidensbaserad medicin i icke-topic-specifika hög nivå kategorier av etiologi, prognos, diagnos, och behandling. Deras forskning fokuserar på att förbättra prestandan över de kliniska frågefilter som först föreslogs av Haynes et al., [11] [12] [13] med hjälp av alla artiklar som publicerades i tio tidskrifter från 1986 till 1991, och om dessa artiklar ingick i AVS Journal Club som en guldstandard. Det har varit mycket mer arbete inom området automatiserad dokumentklassificering för att hjälpa curator annotering av biomedicinska databaser. Liksom arbetet av Aphinyanaphongs et al., 14 målen för dessa uppgifter är att placera artiklar i en av några hög nivå, nontopic-specifika kategorier. Resultaten av dessa automatiserade uppgifter på hög nivå varierar eftersom kraven på återkallande är olika och svåra att jämföra med den ämnesspecifika klassificering som presenteras här. Dobrokhotov m.fl. 15 använde en kombination av NLP och statistiska klassificeringsmetoder för att uppnå ett återkallande av 0,4477 med en precision på 0,6716 för att identifiera artiklar som innehåller information om mänskliga genetiska sjukdomar och polymorfismer, med hjälp av en testuppsättning där 15 % av de ursprungliga artiklarna var relevanta. TREC 2004 Genomics spår inkluderade en uppgift att identifiera artiklar som innehåller information om musgen funktion för Gene Ontology (GO) notation. Med en nyttofunktion som gav 20 gånger vikten av precision, de bästa uppnådda resultaten var en normaliserad nytta på 0,6512, och precision på 0,1579 vid ett återkallande av 0,8881, vilket resulterade i en F-mått på 0,2681. 16 För att bygga och testa ett automatiserat klassificeringssystem för dessa bevisrapporter, fortsatte vi i tre faser. I den första fasen byggde vi testsamlingar för var och en av 15 beredningsämnen. I den andra fasen tränade vi en maskininlärningsbaserad klassificering på testsamlingarna. I slutfasen utvärderade vi strategin för vart och ett av granskningsfrågorna. Figur 1 visar ett diagram över den övergripande processen. Den ursprungliga datamängden bestod av 15 EndNote (http://www. endnote.com/) referensfiler med kommentarer (i de användardefinierade fälten) som gjorts tillgängliga för utredarna av EPC. Varje fält i referensfilen innehöll information om artikelns titel, författare, tidskrift och publiceringsår samt flera användardefinierade fält. De användardefinierade fälten innehöll information som lämnats av EPC-granskarna om huruvida varje artikel klarade den triageutvärdering som gjorts av en expertgranskare på abstract- och artikelnivå. Dessutom kodades ibland en fritextskäl till varför ett papper uteslöts. Därför var dessa fält "semicoded" i att EPC använde en konsekvent uppsättning strängar för att koda triage beslut och kan också ha bifogat ytterligare fri text som beskriver en anledning för tilldelning av en specifik kod. Tillfälliga datainmatningsfel förekom också. För att omvandla dessa data till en enhetlig uppsättning information som skulle kunna användas av ett klassificeringssystem behandlade vi uppgifterna i flera steg. I det första steget exporterade vi data från EndNote med hjälp av en tab-definierad, en post per rad textformat. I det andra steget tog vi fram författare, tidskrift, titel, år och användardefinierad information och använde NCBI Batch Citation Matcher (http://www.ncbi.nlm.nih. gov/entrez/citmatch.cgi) för att slå upp motsvarande PubMed-identifierare (PMID). Sedan producerade vi en ihopfogad fil som inkluderade författaren, tidskrift, titel, år, användardefinierad information, och PMID för varje artikel. För att göra vårt arbete reproducerbart och jämförbart med arbete av andra som tillämpar olika metoder för denna uppgift, behövde vi ha en fast, statisk samling av MEDLINE-skivor. Vi bestämde oss för att använda TREC 2004 Genomics Track dokument corpus, en allmän MEDLINE delmängd som har använts i stor utsträckning i andra experimentella system. Corpus består av alla MEDLINE register (inte bara genomics register, som kan härledas från namnet) för åren 1994 till slutet av 2003. Med hjälp av detta dokument tillåter corpus enkel replikerbarhet av våra resultat och gör det möjligt för andra forskargrupper att direkt jämföra sina resultat med våra egna. 16 Vi behövde begränsa testsamlingen till artiklar för vilka TREC 2004 Genomics Track dokument corpus hade tillgängliga MEDLINE poster. Inte alla artiklar som ingår i referensfilerna indexerades i MEDLINE. Några fanns till exempel i icke-engelska tidskrifter som inte indexerats i MEDLINE. Vi filtrerade testsamlingen av de PMID som fanns i TREC corpus för att säkerställa att vi hade ett MEDLINE-rekord för varje artikel i testsamlingen. I nästa steg normaliserade vi användardefinierade fälten EndNote som innehöll EPC-kodad information för abstract- och artikeltriagebesluten för varje artikel. Vi använde en uppsättning enkla reguljära uttryck, anpassade för varje drog översyn och bestäms genom inspektion av data, för att normalisera resonera fält till en uppsättning av tio konsekvent kodade värden. Koderna och betydelserna visas i tabell 1. Utredarna hade utökat diskussionerna med EPC-granskarna för att fastställa de korrekta reguljära uttrycken för att kartlägga de användardefinierade fälten i de kodade värden som visas i tabell 1 och för att upptäcka och lösa eventuella typografiska fel. Inga artiklar uteslöts från testsamlingen på grund av oförmåga att bearbeta de användarkodade fälten. I denna studie försökte vi särskilja de artiklar som ingick på den abstrakta och fullständiga textnivån från alla de som uteslutits; men vi valde att bevara den information som tillhandahölls i undantagsskälskoderna för användning i framtida arbete. Som ett sista steg kombinerade vi informationen från alla studier till en enda textfil. Varje rad motsvarar en enskild artikel som tredubblats av EPC:s personal för en specifik läkemedelsgranskning, och varje fält motsvarar läkemedelsgranskningens namn, en referensfilsidentifierare, PMID:et och de abstrakta och fullständiga artiklarnas triagefält kodade enligt tabell 1. Exempel på dataposter visas i tabell 2. Observera att även om datamängden endast kommer att innehålla citeringar och inte fulltext artiklar, expert EPC granskare hade tillgång till fulltext artiklar och gjorde sina triage beslut i två steg, den första baserad på abstrakt och den andra baserad på fulltext artikeln. Det är detta slutliga triagebeslut som vi skulle vilja förutsäga med hjälp av en maskininlärningsalgoritm med endast den information som finns i artikelns citering. Observera att i den process som just beskrivs finns det två steg där vi utesluter artiklar som ursprungligen ingick i EndNote-filerna. Vi förlorar artiklar när Batch Citation Matcher inte kan hitta en matchande artikel (dvs. referensen är inte indexerad i MEDLINE) och när artikeln inte finns i den tioåriga MEDLINE-undergruppen. Efter bearbetningen kunde vi konvertera mellan 30% och 50% av referenserna till testsamlingen. Deskriptiv statistik om antalet originalartiklar som granskats för varje studie, antalet artiklar som ingår i textsamlingen och procentandelen positiva artiklar i varje textsamling visas i tabell 3. Den första kolumnen listar namnet på läkemedelsgranskningen, den andra antalet citeringar | Cohen m.fl. REF har utvecklat en utvärderingssamling som innehåller 15 systematiska utvärderingar av läkemedelsklasserna. | 13,431,314 | Reducing Workload in Systematic Review Preparation Using Automated Citation Classification | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,597 |
Abstract-Med den explosiva tillväxten av mobil dataefterfrågan, har det funnits ett ökat intresse för att distribuera små celler av högre frekvensband som ligger bakom det konventionella homogena makrocellsnätet, som vanligtvis kallas heterogena cellulära nätverk, för att avsevärt öka den totala nätkapaciteten. Med stora mängder spektrum tillgängligt i millimetervågen (mmWave) bandet, små celler vid mmWave frekvenser kan ge multi-gigabit åtkomst datahastigheter, medan den trådlösa backhaul i mmWave bandet växer fram som en kostnadseffektiv lösning för att ge hög backhaul kapacitet att ansluta åtkomstpunkter (AP) för de små cellerna. För att det mobila nätet ska fungera optimalt är det nödvändigt att gemensamt utforma radioaccess- och backhaulnäten. Samtidigt bör direkta överföringar mellan anordningar också övervägas för att förbättra systemets prestanda och förbättra användarupplevelsen. I detta dokument föreslår vi ett gemensamt schema för överföring av radioåtkomst och backhaul för små celler i mmWave-bandet, kallat D2DMAC, där ett urvalskriterium är utformat för att möjliggöra enhets-till-enhet-överföringar för prestandaförbättring. I D2DMAC föreslås en samtidig schemaläggningsalgoritm för överföring för att fullt ut utnyttja rumslig återanvändning i mmWave-nätverk. Genom omfattande simuleringar under olika trafikmönster och användarinstallationer, visar vi D2DMAC uppnå nästan optimala prestanda i vissa fall, och överträffar andra protokoll betydligt när det gäller fördröjning och genomströmning. Dessutom analyserar vi också hur valet av väg påverkar prestandaförbättringen av D2DMAC under olika valda parametrar. | Nyligen, Niu et al. REF föreslog en gemensam sändning schemaläggning protokoll för radioåtkomst och backhaul av små celler i mmWave band, kallas D2DMAC. | 10,437,134 | Exploiting Device-to-Device Communications in Joint Scheduling of Access and Backhaul for mmWave Small Cells | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 4,598 |
Distribuerade lagringssystem ger tillförlitlig tillgång till data genom redundans sprids över individuellt opålitliga noder. Tillämpningsscenarier inkluderar datacenter, peer-to-peer-lagringssystem och lagring i trådlösa nätverk. Lagring av data med en radering kod, i fragment spridda över noder, kräver mindre redundans än enkel replikering för samma nivå av tillförlitlighet. Men eftersom fragment måste bytas ut regelbundet när noderna misslyckas, är en nyckelfråga hur man genererar kodade fragment på ett distribuerat sätt samtidigt som så lite data som möjligt överförs över nätverket. För en radering kodat system, en vanlig praxis att reparera från en enda nod misslyckande är för en ny nod att rekonstruera hela kodade data objekt för att generera bara ett kodat block. Vi visar att detta förfarande är ooptimalt. Vi introducerar begreppet regenererande koder, som tillåter en ny nod att kommunicera funktioner av lagrade data från de överlevande noderna. Vi visar att regenererande koder avsevärt kan minska reparationsbandbredden. Vidare visar vi att det finns en grundläggande avvägning mellan lagrings- och reparationsbandbredd som vi teoretiskt karakteriserar med hjälp av flödesargument på ett lämpligt konstruerat diagram. Genom att åberopa konstruktiva resultat i nätkodning, introducerar vi regenererande koder som kan uppnå någon punkt i denna optimala kompromiss. | För att nämna några, regenererande koder REF minimera reparationstrafiken genom att tillåta lagring noder att skicka kodade data under en enda-node reparation. | 502,158 | Network Coding for Distributed Storage Systems | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,599 |
Abstrakt. Vi introducerar autonom skvaller (A/G), en ny genreepidemialgoritm för selektiv informationsspridning i motsats till tidigare användning av epidemialgoritmer som översvämmar hela nätverket. A/G är ett paradigm som passar bra i en mobil ad-hoc-nätverk (MANET) miljö eftersom det inte kräver någon infrastruktur eller mellanprogram som multicast träd och (o)prenumeration underhåll för publicering/prenumeration, men använder ekologiska och ekonomiska principer på ett självorganiserande sätt för att uppnå någon godtycklig selektivitet (flexibel gjutning). Avvägningen av användningen av en statslös självorganiseringsmekanism som A/G är att den inte garanterar fullständighet deterministiskt, vilket är ett av de ursprungliga målen för alternativa selektiva spridningssystem som offentliggörande/prenumeration. Vi hävdar att sådan ofullständighet inte är ett problem i många icke-kritiska civila tillämpningar i verkligheten och realistiska nodrörlighetsmönster, där omkostnaderna för underhåll av infrastruktur kan uppväga fördelarna med fullständighet, mer över, för närvarande finns det ingen mekanism för att förverkliga publicering / prenumeration eller andra paradigm för selektiv spridning i MANET miljöer. | Autonom Gossiping som presenteras i Ref ger ytterligare exempel på användning av epidemier för selektiv informationsspridning. | 166,266 | Autonomous Gossiping : A self-organizing epidemic algorithm for selective information dissemination in wireless mobile ad-hoc networks ? | {'venue': 'HiPC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,600 |
Den gemensamma uppgiften på Aspect baserad Sentiment Analysis fokuserar främst på gruvdrift relevant information från tusentals online-recensioner tillgängliga för en populär produkt eller tjänst. I detta dokument rapporterar vi våra arbeten om aspekttermextrahering och känsloklassificering med avseende på vårt deltagande i den gemensamma uppgiften SemEval-2014. Aspekten extraktion metod är baserad på övervakad lärande algoritm, där vi använder olika klassificeringar, och slutligen kombinera sina resultat med hjälp av en majoritet röstningsteknik. För känsloklassificering använder vi Random Forest classifier. Vårt system för aspektterm extraktion visar F-poäng på 72,13% och 62,84% för restauranger och bärbara datorer recensioner, respektive. På grund av vissa tekniska problem utvärderades inte vår underkastelse om känsloklassificering. Men vi utvärderar det inlämnade systemet med samma utvärderingsmått, och det visar noggrannheten på 67,37% respektive 67,07% för restauranger och bärbara datorer recensioner, respektive. | Deepak Kumar Gupta REF föreslog ett ensemblesystem med olika klassificeringar och kombinerade dem med hjälp av majoritetsröstningsteknik. | 14,266,053 | IITP: Supervised Machine Learning for Aspect based Sentiment Analysis | {'venue': 'SemEval@COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,601 |
Det senaste arbetet har visat att optisk flödesuppskattning kan formuleras som en övervakad inlärningsuppgift och framgångsrikt kan lösas med konvolutionella nätverk. Utbildning av den så kallade FlowNet möjliggörs av en stor syntetiskt genererade dataset. I detta dokument utvidgas begreppet optisk flödesuppskattning via konvolutionsnät till att omfatta skillnader och scenflödesuppskattning. I detta syfte föreslår vi tre syntetiska stereo videodataset med tillräcklig realism, variation och storlek för att framgångsrikt träna stora nätverk. Våra dataset är de första storskaliga dataseten som möjliggör utbildning och utvärdering av scenflödesmetoder. Förutom datauppsättningarna presenterar vi ett konvolutionsnätverk för bedömning av skillnader i realtid som ger de senaste resultaten. Genom att kombinera ett nätverk för mätning av flöden och skillnader och utbilda det gemensamt, visar vi den första scenflödesberäkningen med ett konvolutionsnätverk. | Med DispNet arkitektur REF ) tillämpades på skillnaden uppskattning uppgift och presenterade en syntetisk stereo dataset, Scene Flow, som var en stor dataset för att träna konvolutionella nätverk för skillnader, optiskt flöde, och scenflöde uppskattning. | 206,594,275 | A Large Dataset to Train Convolutional Networks for Disparity, Optical Flow, and Scene Flow Estimation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,602 |
End-to-end kommunikation mellan Internet-enheter och Internet-integrerade begränsade trådlösa avkänningsplattformar kommer att ge ett viktigt bidrag till att möjliggöra många av de tänkta IoT-tillämpningarna och, i detta sammanhang, säkerhet måste tas upp när man använder kommunikationsteknik som 6LoWPAN och CoAP. Med tanke på de begränsningar som vanligtvis finns på avkänningsenheter när det gäller energi, minne och beräkningsförmåga, kommer integreringen av trådlösa sensornätverk (WSN) med Internet med hjälp av sådan teknik att öppna nya hot och attacker som måste hanteras, särskilt de som härrör från enheter utan begränsningar av WSN-sensorer (t.ex. Internetvärdar). Befintliga krypteringsstrategier för kommunikation i IoT-miljöer är oförmögna att skydda Internet-integrerade WSN-miljöer från Denial of Service (DoS) attacker, liksom från andra former av attacker på nätverket och programlager med CoAP. Vi kan därför ganska anser att anomali och intrång upptäckt kommer att spela en viktig roll i materialiseringen av de flesta av de tänkta IoT-tillämpningar. I denna artikel föreslår vi en ram för att stödja upptäckt och reaktion av intrång i Internetintegrerad CoAP WSN, och inom ramen för denna ram utformar och genomför vi olika tillvägagångssätt för att stödja säkerhet mot olika klasser av attacker. Vi har genomfört och utvärderat den föreslagna ramen och de föreslagna mekanismerna experimentellt, med beaktande av olika attackscenarier, och vår strategi befanns vara genomförbar, med tanke på dess inverkan på kritiska resurser för avkänningsanordningar och dess effektivitet när det gäller att hantera de övervägda attackerna. Eftersom begränsad trådlös avkänning och aktiveringsutrustning successivt integreras med infrastrukturen för Internetkommunikation, framstår vikten av att upptäcka och hantera attacker mot dess säkerhet och stabilitet som ett grundläggande krav. Denna integration håller på att bli verklighet, tack vare att en standardiserad kommunikationsstapel är utformad för sakernas internet [1], som är bemyndigad av protokoll som 6LoWPAN anpassningsskikt [2], RPL (IPv6 Routing Protocol for Low Power and Lossy Networks) [3], och Constrict Application Protocol (CoAP) [4]. Andra protokoll kan också övervägas på applikationsskiktet, såsom MQTT (Message Queuing Telemetri Transport) [5], men vårt fokus i CoAP motiveras av sitt stöd för lågenergi trådlösa lokala kommunikationsmiljöer, maskin-till-maskin (M2M) kommunikation mellan begränsade sensorer och ställdon och andra externa Internet-enheter, och dess direkta kompatibilitet med HTTP. Vi anser att denna sista egenskap är av särskild betydelse, eftersom den gör det möjligt att utnyttja befintliga webbapplikationer. Vårt fokus ligger således på att upptäcka attacker mot avkänningsanordningar som ingår i infrastrukturen för Internetkommunikation, och CoAP är av särskild betydelse, eftersom det utformades i syfte att garantera interoperabilitet med webben. Det är också viktigt att notera att, trots den nuvarande inriktningen på IEEE 802.15.4 som kommunikationsteknik med låga energinivåer som stöder Internetintegrerade WSN-miljöer, andra tekniker antas av 6LoWPAN-anpassningsskiktet, vilket redan är fallet med Bluetooth Low-Energy (BLE) [6]. Hot kan uppstå i form av Förnekande av Service (DoS) attacker och attacker på nätverket (6LoWPAN) och tillämpningsskikt, genom att undergräva CoAP:s användningsregler. Även om säkerhetsmekanismer som IPSec och DTLS har | I REF föreslås en ram för upptäckt och förebyggande av intrång för att upptäcka DoS-attacker på nätverket och attacker mot de normala verksamhetsreglerna i CoAP-protokollet. | 21,701,251 | An Intrusion Detection and Prevention Framework for Internet-Integrated CoAP WSN | {'venue': 'Security and Communication Networks', 'journal': 'Security and Communication Networks', 'mag_field_of_study': ['Computer Science']} | 4,603 |
Med den senaste tidens framsteg i grafik, har det blivit mer dragbart att träna modeller på syntetiska bilder, potentiellt undvika behovet av dyra kommentarer. Att lära sig av syntetiska bilder kan dock inte uppnå önskad prestanda på grund av ett gap mellan syntetiska och verkliga bilddistributioner. För att minska detta gap föreslår vi Simulated+Oövervakad (S+U) inlärning, där uppgiften är att lära sig en modell för att förbättra realismen i en simulators utdata med hjälp av omärkta verkliga data, samtidigt som annotationsinformationen från simulatorn bevaras. Vi utvecklar en metod för S+U-inlärning som använder ett kontradiktoriskt nätverk som liknar Generative Adversarial Networks (GANS), men med syntetiska bilder som ingångar istället för slumpmässiga vektorer. Vi gör flera viktiga ändringar i standarden GAN algoritm för att bevara kommentarer, undvika artefakter, och stabilisera utbildning: (i) en "självreglering" term, (ii) en lokal kontrarimal förlust, och (iii) uppdatera discriminator med hjälp av en historia av förfinade bilder. Vi visar att detta möjliggör generering av mycket realistiska bilder, som vi demonstrerar både kvalitativt och med en användarstudie. Vi utvärderar kvantitativt de bilder som genereras av träningsmodeller för blickuppskattning och handuppskattning. Vi visar en betydande förbättring jämfört med att använda syntetiska bilder, och uppnå state-of-the-art resultat på MPIIGaze dataset utan någon märkt verkliga data. | Halvövervakad inlärning kan också kombineras med GAN för att förbättra realismen i en simulators resultat samtidigt som annotationsinformation REF ). | 8,229,065 | Learning from Simulated and Unsupervised Images through Adversarial Training | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,604 |
Abstrakt. Moderna CNN-baserade objektdetektorer förlitar sig på att begränsa låda regression och icke-maximal dämpning för att lokalisera objekt. Sannolikheten för klassetiketter återspeglar naturligtvis klassificeringskonfident, medan lokaliseringskonfident saknas. Detta gör att ordentligt lokaliserade avgränsande lådor degenereras under iterativ regression eller till och med undertryckt under NMS. I tidningen föreslår vi IoU-Net lärande för att förutsäga IoU mellan varje upptäckt avgränsande låda och matchad mark-sanning. Nätverket förvärvar detta förtroende för lokalisering, vilket förbättrar NMS-förfarandet genom att bevara exakt lokaliserade avgränsade lådor. Dessutom föreslås en optimeringsbaserad begränsningsboxförfiningsmetod, där det förutsagda IoU formuleras som mål. Omfattande experiment på MS-COCO dataset visar effektiviteten av IoU-Net, samt dess kompatibilitet med och anpassningsförmåga till flera toppmoderna objekt detektorer. | Nyligen, IoU-Net REF föreslår att lära IoU mellan den förutsagda gränsrutan och den mark-sanning gränsande rutan. | 51,888,961 | Acquisition of Localization Confidence for Accurate Object Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,605 |
Hydrologiska modeller är nödvändiga verktyg för att simulera vattencykeln och för att förstå förändringar i vattenresurserna. För att uppnå realistiska modellsimuleringsresultat används verkliga observationer för att bestämma modellparametrar inom ett "kalibreringsförfarande". Optimeringstekniker används vanligen i modellkalibreringssteget, vilket garanterar en maximal likhet mellan modellutgångar och observationer. Praktiska erfarenheter av hydrologisk modellkalibrering har visat att enskilda objektiva metoder kanske inte är tillräckliga för att anpassa olika aspekter av modellsimuleringar. Dessa begränsningar kan vara ett resultat av i) med hjälp av observationer som inte i tillräcklig utsträckning representerar dynamiken i vattencykeln och/eller ii) på grund av begränsad effektivitet hos de tillämpade kalibreringsteknikerna. För att ta itu med (i) bedömer vi hur man lägger till dagliga förändringar av Total Water Storage (dTWS) som härrör från Gravity Recovery and Climate Experiment (GRACE) som en extra observation, förutom de traditionellt använda avrinningsdata, förbättrar kalibreringen av en enkel 4-parameters konceptuell hydrologisk modell (GR4J, på franska: modèle du Génie Ruralà 4 paramètres Journalier) inom Donaubäckenet. Eftersom valet av en korrekt kalibreringsmetod (i ii) är en utmanande uppgift och kan ha betydande inflytande på kvaliteten på modellsimuleringar, för första gången, fyra evolutionära optimeringstekniker, inklusive den icke-dominerade sorteringsgenetiska algoritmen II (NSGA-II), den multiobjektiva partikelsvamoptimeringen (MPSO), Pareto Envelope-Based Selection Algorithm II (PSA-II) och styrkan Pareto Evolutionary Algorithm II (SPEA-II) tillsammans med den kombinerade objektiva funktionen och den genetiska Algorithm (CGA) testas för att kalibrera modellen i (i). Ett antal kvalitetsåtgärder tillämpas för att bedöma kardinalitet, noggrannhet och mångfald av lösningar, som inkluderar antalet Pareto Solutions (NPS), Generation Distance (GD), Spacing (SP) och Maximum Spread (MS). Våra resultat indikerar att NSGA-II enligt MS och SP presterar bättre än andra tekniker för kalibrering av GR4J med GRACE dTWS och in situ avrinningsdata. Med GD som ett mått på effektivitet, MPSO anses vara den bästa tekniken. CGA anses vara en effektiv metod, samtidigt som statistiken över GR4J: s 4 kalibrerade parametrar för att rangordna optimeringstekniker. Modelleffektivitetskoefficienten Nash-Sutcliffe används också för att bedöma den prediktiva effekten hos de kalibrerade hydrologiska modellerna, för vilka våra resultat indikerar tillfredsställande prestanda hos de bedömda kalibreringsförsöken. | En annan relaterad studie finns i Reference Ref, där författarna analyserade hur man lägger till daglig Total Water Storage (dTWS) från Gravity Recovery and Climate Experiment (GRACE) som extra observationer, förutom de traditionellt använda avrinningsdata, förbättrade kalibreringen av en konceptuell hydrologisk modell inom Donaubäckenet. | 3,487,925 | Comparing multi-objective optimization techniques to calibrate a conceptual hydrological model using in situ runoff and daily GRACE data | {'venue': 'Computational Geosciences', 'journal': 'Computational Geosciences', 'mag_field_of_study': ['Mathematics']} | 4,606 |
Fuzz testning har haft stor framgång med att upptäcka säkerhetskritiska buggar i verklig programvara. Nyligen har forskare ägnat betydande ansträngningar åt att ta fram nya fuzzing tekniker, strategier och algoritmer. Sådana nya idéer utvärderas i första hand experimentellt, så en viktig fråga är: Vilken experimentell uppställning behövs för att åstadkomma tillförlitliga resultat? Vi undersökte den senaste forskningslitteraturen och utvärderade de experimentella utvärderingar som gjorts av 32 fuzzinguppsatser. Vi fann problem i varje utvärdering vi övervägde. Vi utförde sedan vår egen omfattande experimentella utvärdering med hjälp av en befintlig fuzzer. Våra resultat visade att de allmänna problem som vi fann i befintliga experimentella utvärderingar verkligen kan översättas till faktiska felaktiga eller vilseledande bedömningar. Vi avslutar med några riktlinjer som vi hoppas kommer att bidra till att förbättra experimentella utvärderingar av fuzz testning algoritmer, vilket gör rapporterade resultat mer robust. • Säkerhet och integritet → Programvara och program säkerhet; En fuzz testare (eller fuzzer) är ett verktyg som iterativt och slumpmässigt genererar ingångar som det testar ett målprogram. Trots att de verkar "naiva" jämfört med mer sofistikerade verktyg som involverar SMT-lösare, symboliskt utförande och statisk analys, är fuzzers förvånansvärt effektiva. Till exempel har den populära fuzzer AFL använts för att hitta hundratals buggar i populära program [1]. Jämföra AFL head-to-head med den symboliska executor angr, AFL hittade 76% fler buggar (68 vs 16) i samma corpus under en 24-timmars period [50]. Framgången för fuzzers har gjort dem till ett populärt ämne för forskning. | Fuzz Testing Fuzz testers REF mutera ingångar icke-deterministiskt i ett försök att utvärdera korrekthet, säkerhet och täckning av program. | 52,127,357 | Evaluating Fuzz Testing | {'venue': "CCS '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,607 |
I detta papper ger vi effektiva algoritmer och lägre gränser för att lösa de tunga hitters problem samtidigt som differential integritet i den fullt distribuerade lokala modellen. I denna modell, det finns n partier, som var och en har ett enda element från ett universum av storlek N. De tunga hitters problem är att hitta identiteten hos de vanligaste elementet som delas mellan n partier. I den lokala modellen finns det ingen betrodd databasadministratör, och därför måste algoritmen interagera med var och en av n-parterna separat, med hjälp av ett differentialt privat protokoll. Vi ger snäva informationsteoretiska övre och nedre gränser för exaktheten som detta problem kan lösas med i den lokala modellen (som ger en separation mellan den lokala modellen och den mer gemensamma centraliserade modellen för integritet), samt beräkningseffektiva algoritmer även i fall där datauniversum N kan vara exponentiellt stort. Tänk på problemet med en webbplatsadministratör som vill veta vad hans vanligaste trafikkällor är. Var och en av n besökare anländer med en enda hänvisning webbplats: namnet på den senaste webbplats som hon besökte, som är hämtad från ett stort universum N av möjliga hänvisningsplatser (N här är uppsättningen av alla webbplatser på internet). Det finns värde i att identifiera den mest populära referenssidan (den tunga hitter ): webbplatsadministratören kan bättre skräddarsy innehållet på sin webbplats, eller bättre fokusera sina marknadsföringsresurser. Å andra sidan kan identiteten på varje individs referenssida vara pinsamt eller på annat sätt avslöjande, och är därför privat information. Vi kan därför föreställa oss en värld där denna information måste behandlas "privat". I denna situation kommunicerar besökarna dessutom direkt med servrarna på de webbplatser som de besöker: d.v.s. Det finns ingen tredje part som kan vara betrodd med att aggregera alla uppgifter på webbplatsen och tillhandahålla sekretessbevarande statistik till webbplatsens administratör. I denna inställning, hur väl kan webbplatsadministratören uppskatta den tunga hitter samtidigt kunna ge formella integritetsgarantier till sina besökare? Denna situation kan mer allmänt modelleras som de tunga hitters problem under begränsningen av differential integritet. Det finns n individer i... [n] som var och en är associerad med ett element v i... N av några stora datauniversum N. Den tunga hitter är den mest förekommande element x... N bland de som {v 1,. .., v n }, och vi skulle vilja kunna identifiera detta element, eller en som inträffar nästan lika ofta som den tunga hitter. Dessutom vill vi lösa detta problem 1 samtidigt som vi bevarar den differentierade integriteten i den helt fördelade (lokala) modellen. Vi definierar detta formellt i avsnitt 2, men grovt taget, en algoritm är differentialt privat om förändringar i data hos enskilda individer endast resulterar i små förändringar i utdatadistributionen av algoritmen. Dessutom, i den fullt fördelade inställningen, måste varje individ (som kan ses som en databas av storlek 1) interagera med algoritmen oberoende av alla andra individer, med hjälp av en differentialt privat algoritm. Detta är i motsats till den mer allmänt studerade centraliserade modellen, där en betrodd databasadministratör kan ha (exakt) tillgång till alla data, och samordna en privat beräkning. Vi studerar detta problem både ur informationsteoretisk synvinkel och ur synvinkeln effektiva algoritmer. Vi säger att en algoritm för de privata tunga hitters problem är effektiv om det körs i tid poly(n, log N ): d.v.s. polynom i databasstorleken, men endast polylogaritmisk i universumstorleken (dvs. i vad vi betraktar som det mest intressanta intervallet av parametrar, kan universum vara exponentiellt större än storleken på databasen). Vi ger tät information teoretiska övre och nedre gränser för exaktheten som den tunga hitter kan hittas i den privata distribuerade inställningen (skilja denna modell från den privata centraliserade inställningen), och ger flera effektiva algoritmer som uppnår bra, även om informations-teoretiskt suboptimal noggrannhet garanterar. Vi lämnar öppen frågan om effektiva algoritmer exakt kan matcha den information teoretiska gränser vi bevisar för de privata tunga hitters problem i den distribuerade inställningen. I detta avsnitt sammanfattar vi våra resultat. De gränser vi diskuterar här är informella och döljer många av de parametrar som vi ännu inte har definierat. De formella gränserna anges i papperets huvuddel. För det första tillhandahåller vi en teoretisk karakterisering av den noggrannhet till vilken någon algoritm (oberoende av beräkningsbegränsningar) kan lösa de tunga hitters problem i den privata distribuerade inställningen. Vi säger att en algoritm är α-korrekt om den returnerar ett universumelement som inträffar med frekvensen som mest en additiv α mindre än den verkliga tunga hittern. I den centraliserade inställningen, en enkel tillämpning av den exponentiella mekanismen [MT07] ger en α-korrekt mekanism för den tunga-hitters problem där α = O (log på N), som i synnerhet, är oberoende av antalet individer n. Däremot visar vi att i den fullt distribuerade inställningen, ingen algoritm kan vara α-korrekt för α = på n) även i det fall på N = 2. Omvänt ger vi en nästan matchande övre gräns (och en algoritm med run-time linjär i N ) som är α-noggrannhet för α = O ( ε n log N ). Nästa, Vi anser effektiva algoritmer som körs i tiden endast polylogaritmiska i universumets storlek. Här, vi ger två algoritmer. En är en tillämpning av en komprimerad sensoralgoritm av Gilbert et al [GLPS10], som är α-korrekt för α = Õ(n 5/6 log N log N ). Sedan ger vi en algoritm baserad på grupptestning med hjälp av pairwise oberoende hash funktioner, som har en ojämförlig gräns. Ungefärligt, garanterar det att returnera exakt tung hitter (d.v.s. α = 0) när den tunga hitterns frekvens är större än l 2-normen för de återstående elementens frekvenser. Beroende på hur dessa frekvenser fördelas kan detta motsvara en gräns för α-noggrannhet för α som sträcker sig var som helst mellan den optimala α = O( ε n) till α = O(n). 2 Våra övre gränser, både informationsteoretiska, och de med effektiva algoritmer, är baserade på den allmänna tekniken för slumpmässig projektion och koncentration av mått. För att bevisa vår information teoretiska övre gräns, Vi observerar att för att hitta den tunga hitter, kan vi se den privata databasen som en histogram v i N dimensional utrymme. Sedan är det tillräckligt att hitta indexet i [N] av universum element som maximerar v, e i, där e i är i'th standard bas vektor. Både v och varje e i har liten l 1 -norm, och så var och en av dessa inre produkter kan ungefär bevaras genom att ta en slumpmässig projektion in i Õ(log N ) dimensionsutrymme. Dessutom kan vi projicera varje individs data in i detta utrymme oberoende i den fullt distribuerade inställningen, vilket medför en förlust av endast O ( ε n) i noggrannhet. Denna mekanism, dock, är inte effektiv, eftersom för att hitta den tunga hitter, måste vi räkna upp genom alla på N grund vektorer e i för att hitta den som maximerar den inre produkten med den projicerade databasen. Liknande idéer leder till våra effektiva algoritmer, om än med sämre precisionsgarantier. Till exempel, i vår första algoritm, tillämpar vi tekniker från komprimerad avkänning till den projicerade databasen för att återställa (ungefär) den tunga hitter, snarare än att kontrollera bas vektorer direkt. I vår andra algoritm, tar vi en projektion med hjälp av en viss familj av parvis oberoende hash funktioner, som är linjära funktioner data universum element. På grund av denna linjäritet kan vi effektivt "invertera" projektionsmatrisen för att hitta den tunga hittern. Vår nedre gräns skiljer den distribuerade inställningen från den centraliserade inställningen genom att tillämpa ett antikoncentrationsargument. Ungefärligt sett observerar vi att i den helt distribuerade inställningen, om enskilda dataelement valdes enhetligt i.i.d. från datauniversumet N, sedan även efter konditionering på meddelanden som utbyts med någon differentialt privat algoritm, förblir de självständigt distribuerade, och ungefär enhetligt. Därför, av Berry-Esseen teorem, även efter någon algoritm beräknar sin uppskattning av den tunga hitter, är den verkliga fördelningen över räkna fortfarande ungefär normalt distribueras. Eftersom den Gaussiska distributionen uppvisar starka antikoncentrationsegenskaper, gör det möjligt för oss att villkorslöst ge en lägre gräns för vilken algoritm som helst i den fullt distribuerade inställningen. Differentiell integritet infördes i en sekvens av papper som kulminerar i [DMNS06], och har sedan dess blivit standard "lösningskoncept" för integritet i den teoretiska datavetenskap litteratur. Det finns vid det här laget en mycket stor litteratur om detta ämne, som är för stor för att sammanfattas här. Istället fokuserar vi bara på det mest närbesläktade arbetet, och hänvisar den nyfikna läsaren till en undersökning av Dwork [Dwo08]. Merparten av litteraturen om differential integritet fokuserar på den centraliserade modellen, där det finns en betrodd databasadministratör. I detta dokument fokuserar vi på den lokala eller helt distribuerade modellen, som infördes av [KLN + 08], där varje individ har sina egna data (dvs. Det finns n databaser, var och en av storlek 1), och algoritmen måste interagera med var och en på ett differentierat privat sätt. Det har varit lite arbete i denna mer restriktiva modell-problemen att lära [KLN + 08] och frågeutgåva [GHRU11] i den lokala modellen är väl förstådd 1, men endast upp till polynom faktorer 1 Grovt, den uppsättning begrepp som kan läras i den lokala modellen ges polynom prov komplexitet är lika med den uppsättning begrepp som kan läras i SQ-modellen med tanke på polynom frågekomplexitet [KLN + 08], och uppsättningen av frågor som kan släppas i den lokala modellen givet polynom prov komplexitet är lika med uppsättningen av begrepp som kan agnostiskt lärts i SQ-modellen givet polynomet frågekomplex [GHRU11], men polynomials | Hsu m.fl. I REF föreslogs effektiva differentierade privata algoritmer för att lösa problemet med tunga hitters i den helt distribuerade lokala modellen, där varje kamrat har ett enda element. | 3,936,111 | Distributed Private Heavy Hitters | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,608 |
Abstract-Real-world autonoma fordon fungerar ofta i en tidigare okänd miljö. Eftersom de flesta av dessa system är säkerhetskritiska är det viktigt att se till att de fungerar säkert även när de ställs inför miljöosäkerhet. Nuvarande verktyg för säkerhetsanalys gör det möjligt för autonoma system att resonera om säkerheten med full information om miljöns tillstånd i förväg. Dessa verktyg expanderar dock inte väl till scenarier där miljön uppfattas i realtid, t.ex. under navigeringsuppgifter. I detta arbete föreslår vi en ny säkerhetsanalysmetod i realtid baserad på Hamilton-Jacobi-tillgänglighet som ger starka säkerhetsgarantier trots de okända delarna av miljön. Vår säkerhetsmetod är planner-agnostisk och ger garantier för en mängd olika kartsensorer. Vi demonstrerar vår strategi inom simulering och hårdvara för att ge säkerhetsgarantier kring en toppmodern visionbaserad, inlärningsbaserad planerare. Videor av vårt tillvägagångssätt och experiment finns på projektets hemsida 1. | Den senaste tidens arbete av Ref föreslog också en säkerhetsram i realtid utöver inlärningsbaserade planerare, baserad på Hamilton-Jacobi-tillgänglighet. | 143,421,545 | An Efficient Reachability-Based Framework for Provably Safe Autonomous Navigation in Unknown Environments | {'venue': '2019 IEEE 58th Conference on Decision and Control (CDC)', 'journal': '2019 IEEE 58th Conference on Decision and Control (CDC)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,609 |
Vi presenterar en metod för 3D-objektdetektering och poserar uppskattning från en enda bild. I motsats till nuvarande tekniker som endast regresserar 3D-orienteringen av ett objekt, vår metod regresserar först relativt stabila 3D-objektegenskaper med hjälp av ett djupt konvolutionellt neuralt nätverk och sedan kombinerar dessa uppskattningar med geometriska begränsningar som tillhandahålls av en 2D-objekt avgränsande låda för att producera en komplett 3D-gränsande låda. Den första nätverksutgången uppskattar 3D-objektorienteringen med hjälp av en ny hybrid diskret-kontinuerlig förlust, som avsevärt överträffar L2-förlusten. Den andra produktionen regresserar 3D-objekt dimensionerna, som har relativt lite varians jämfört med alternativ och kan ofta förutsägas för många objekttyper. Dessa uppskattningar, i kombination med de geometriska begränsningar för översättning som införs av 2D-gränsrutan, gör det möjligt för oss att återställa en stabil och korrekt 3D-objekt pose. Vi utvärderar vår metod på det utmanande KITTI-objektdetekteringsriktmärket [2] både på det officiella måttet för 3D-orienteringsuppskattning och på noggrannheten hos de erhållna 3D-begränsande rutorna. Även om vår metod är konceptuellt enkel, överträffar den mer komplexa och beräkningsmässigt dyra metoder som utnyttjar semantisk segmentering, till exempel segmentering på nivå och platta markposter [4] och upptäckt underkategori [23] [24]. Vår diskret-kontinuerliga förlust ger också toppmoderna resultat för 3D synvinkel uppskattning på Pascal 3D+ dataset [26]. * Arbete som praktikant på Zoox, Inc. | I REF använder författarna först ett CNN för att regressera 3D-objektorientering, och kombinerar sedan dessa uppskattningar med geometriska begränsningar som tillhandahålls av en 2D-objekt avgränsande ruta för att producera en komplett 3D-begränsningsruta. | 8,694,036 | 3D Bounding Box Estimation Using Deep Learning and Geometry | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,610 |
Abstract-Multi-hop undervattens akustiska sensor nätverk begränsar prestanda för medium åtkomst kontroll protokoll. Effektiviteten i det välkända RTS-CTS-systemet försämras på grund av långa förseningar i spridningen av sådana nät. På senare tid har intresset för Aloha-varianter dykt upp, men prestandan hos sådana protokoll inom ramen för multi-hop nätverk är inte väl studerad. I detta dokument identifierar vi utmaningarna med att modellera innehållsbaserade styrprotokoll för medium åtkomst och presenterar en modell för att analysera Aloha-varianter för en enkel strängtopologi som ett första steg mot att analysera prestandan hos stridsbaserade förslag i multi-hop akustiksensornätverk under vatten. En tillämpning av modellen tyder på att Aloha varianter är olika känsliga för trafikbelastningar och nätverksstorlek. | Dessutom, i REF, författarna identifiera utmaningarna med att modellera strid-baserade medium åtkomst kontroll protokoll och presentera en modell för att analysera ALOHA varianter för en enkel sträng topologi som ett första steg mot att analysera prestanda av strid-baserade förslag i multi-hop undervattens akustiska sensor nätverk. | 18,442,079 | Analyzing the Performance of Multi-hop Underwater Acoustic Sensor Networks | {'venue': 'OCEANS 2007 - Europe', 'journal': 'OCEANS 2007 - Europe', 'mag_field_of_study': ['Engineering']} | 4,611 |
I detta dokument föreslår vi en ny domänanpassningsmetod som heter "blandad finjustering" för neural maskinöversättning (NMT). Vi kombinerar två befintliga metoder, nämligen finjustering och multidomän NMT. Vi tränar först en NMT-modell på en odomän parallell corpus, och sedan finjustera den på en parallell corpus som är en blandning av in-domain och out-to-domain corpora. Alla corpora är förstärkta med konstgjorda taggar för att indikera specifika domäner. Vi jämför empiriskt vår föreslagna metod mot finjusterings- och multidomänmetoder och diskuterar dess fördelar och brister. | REF mixa in-domän- och out-of-domain-data under den fortsatta utbildningen för att anpassa sig till flera domäner. | 35,273,027 | An Empirical Comparison of Domain Adaptation Methods for Neural Machine Translation | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,612 |
Vi presenterar en metod som lär sig ordet inbäddning för Twitter känsla klassificering i denna uppsats. De flesta befintliga algoritmer för att lära kontinuerliga ord representationer typiskt bara modellera den syntaktiska sammanhang av ord men ignorera känslan av text. Detta är problematiskt för känsloanalys eftersom de vanligtvis kartlägger ord med liknande syntaktiska sammanhang men motsatta känslor polaritet, såsom bra och dåliga, till angränsande ord vektorer. Vi tar itu med denna fråga genom att lära sig känslospecifika ord inbäddning (SSWE), som kodar känslor information i den kontinuerliga representationen av ord. Speciellt utvecklar vi tre neurala nätverk för att effektivt införliva övervakningen från känslopolaritet av text (t.ex. meningar eller tweets) i sina förlustfunktioner. För att få storskalig träning corpora, lär vi oss det känslospecifika ordet inbäddning från massiva fjärrövervakade tweets samlas av positiva och negativa smilisar. Experiment om tillämpning av SS-WE på ett riktmärke Twitter-känslor klassificering dataset i SemEval 2013 visar att (1) SSWE-funktionen utför jämförbart med handgjorda funktioner i det topp-performade systemet; (2) prestandan förbättras ytterligare genom att sammanfalla SSWE med befintliga funktioner set. | REF lärde ordrepresentationer som kodar både syntaktiskt sammanhang och känslopolaritet genom att lägga till ett mål för att klassificera polariteten i ett n-gram. | 886,027 | Learning Sentiment-Specific Word Embedding for Twitter Sentiment Classification | {'venue': 'Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)', 'journal': 'Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)', 'mag_field_of_study': ['Computer Science']} | 4,613 |
Uppskattning av antalet och tätheten kartor från crowd images har ett brett spektrum av applikationer såsom videoövervakning, trafikövervakning, allmän säkerhet och stadsplanering. Dessutom kan tekniker som utvecklats för crowd counting tillämpas på relaterade uppgifter inom andra studieområden såsom cellmikroskopi, fordonsräkning och miljöundersökning. Uppgiften att räkna folkmassa och täthet karta uppskattning är full av många utmaningar såsom ocklusioner, icke-uniform densitet, intra-scen och inter-scen variationer i skala och perspektiv. Ändå, under de senaste åren, crowd räkna analys har utvecklats från tidigare metoder som ofta är begränsade till små variationer i crowd densitet och skalor till de nuvarande state-of-the-art metoder som har utvecklat förmågan att utföra framgångsrikt på ett brett spektrum av scenarier. Framgången med crowd counting metoder under de senaste åren kan till stor del tillskrivas djupt lärande och publikationer av utmanande dataset. I detta dokument ger vi en omfattande undersökning av nyligen gjorda Convolutional Neural Network (CNN) baserade metoder som har visat betydande förbättringar jämfört med tidigare metoder som till stor del bygger på handgjorda representationer. För det första går vi kort igenom de banbrytande metoder som använder handgjorda representationer och sedan fördjupar vi oss i de djupt lärande-baserade tillvägagångssätten och nyligen publicerade dataset. Dessutom diskuterar vi fördelarna och nackdelarna med befintliga CNN-baserade metoder och identifierar lovande vägar för forskning inom detta snabbt föränderliga område. | CNN-baserade beräkningsmetoder erbjuder kraftfulla förbättringar jämfört med metoder som bygger på hantverksmässiga representationer REF. | 13,709,403 | A Survey of Recent Advances in CNN-based Single Image Crowd Counting and Density Estimation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,614 |
Långa blad i landväxter och deras ubåtar, algblad, har en typisk, sadelliknande mittyta och krusade kanter. För att förstå ursprunget till dessa morfologier, dissekerar vi blad och differentialt stretch skumband för att visa att dessa former uppstår från en enkel orsak, den elastiska avslappning via böjning som följer antingen differential tillväxt (i blad) eller differential sträcker sig förbi avkastningspunkten (i band). Vi kvantifierar dessa olika modaliteter i termer av en matematisk modell för formen av en initialt plan elastisk plåt med sidogradienter i längdtillväxt. Genom att använda en kombination av skalningskoncept, stabilitetsanalys och numeriska simuleringar kartlägger vi formytan för dessa växande band och finner att en lång platt lamina deformeras till en sadelform och/eller utvecklar böjningar som kan leda till starkt lokaliserade krusningar då tillväxtstammen är lokaliserad till bladkanten. Vår teori avgränsar de geometriska och tillväxtkontrollparametrar som bestämmer formen utrymme finita laminae och därmed möjliggör en jämförande studie av långsträckta blad morfologi. Växande ytor på kantens actuation eller bladliknande strukturer är tunna, d.v.s., de har en dimension som är mycket mindre än de andra två. De uppstår i biologi i en mängd olika situationer, allt från den graciöst böljande ubåten avaskulära algblad (1) till sadelformade, ringlande eller kanträfflade blad av många jordväxter (2). Mångfalden av deras planformer och tredimensionella former återspeglar både deras tillväxthistoria och deras mekaniska egenskaper och ställer många fysikalisk-kemiska frågor som i stort kan klassificeras i två typer: (i) Hur leder ohomogen tillväxt på molekylär och cellulär nivå till de observerade komplexa formerna på mesoskopisk/makroskopisk nivå? och ii) hur påverkar den resulterande mesoskopiska formen de underliggande molekylära tillväxtprocesserna? På molekylär nivå leder mutanter som ansvarar för differentialcellsproliferation (3) till en rad bladformer. På makroskopisk nivå leder påfrestningar som orsakas av yttre belastningar till fenotypisk plasticitet i algblad som växlar mellan långa, smala, bladliknande former i snabbt flöde till bredare böljande former i långsamt flöde (1). För att förstå ursprunget till dessa morfologiska varianter krävs en matematisk teori som förklarar den process genom vilken form genereras av ohomogen tillväxt i en vävnad. Den senaste tidens arbete har fokuserat på några av dessa frågor genom att lyfta fram de självliknande strukturer som bildas nära kanten på grund av variationer i ett förskrivet inre mått på en yta (4, 5), och även på fallet med en cirkulär skiva med kantlokaliserad tillväxt (6-8), men tar inte hänsyn till den subtila roll gränsförhållandena vid den fria kanten, effekten av den finita bredden på ett blad, eller fasrymden av olika former som kvantifierar mångfalden i bladmorfologi. Motiverade av våra experimentella observationer av långa blad och artificiella härmar därav, här tar vi upp frågan om morfologin av ett långt blad eller lamina av finita dimensioner (längd 2L, bredd 2W, tjocklek H, med H W < L). I synnerhet utgör vi matematiskt ett ickelinjärt gränsvärdesproblem som står för kopplingen av tillväxt till formen av en lamina. Vi analyserar de resulterande ekvationerna genom att använda en kombination av skalningskoncept, asymptotik och stabilitetsanalys för att härleda de olika morfologier som uppstår och visa att den ändliga bredden på ett långt blad leder till en kvalitativt ny klass av former, såsom sadlar och krusade ytor. Vi bekräftar dessa genom att använda numeriska simuleringar för att konstruera ett enkelt fasdiagram för klassificeringen av den långa bladmorfologin. Form av en plantain Lily Leaf. På bild. 1A, Vi visar en typisk lång blad av plantain lily Hosta langifolia. Vi ser att midvein krökning är störst nära distal ände och monotont minskar mot basen, medan laminan fäst vid midvein är böjd tvärt så att bladen är ungefär som en sadel, med negativ Gaussian krökning. Men bladens kanter visar ett lokalt, ovulatoriskt porlande mönster som sitter på den globala sadelform som är mest framträdande där laminan är den bredaste. Denna morfologi är relativt vanlig i blad och kronblad av kärl- och avaskulära växter som växer i luft och vatten, d.v.s. är den relativt oberoende av gravitationens effekter. För att fokusera på den relativa rollen av inhomogen tillväxt och den inneboende elastiska naturen av det tunna blad, skär vi laminan i tunna remsor parallellt med midvein. Vi ser att den relativt stela midvein oböjda från sitt naturligt böjda tillstånd (när laminan är fäst vid den) till ett rakt tillstånd, utom nära dess spets, medan den avslappnade längden av remsorna efter att de har rätats är annorlunda än när de är en del av hela lövet. Banden längre från midvein sträcker sig mer, d.v.s. den icke-uniforma fördelningen av tillväxt-inducerad stam är sådan att den genererar tryckspänningar längs bladkanterna, vilket kan leda till buckling instabilitet. Dessa observationer överensstämmer med tidigare mätningar i kärl- och avaskulära blad (1, 2), som visar liknande trender. Form av ett sträckt band. För att efterlikna tillväxten differentialt i en tunn lamina, sträcker vi ett naturligt plant tunt skumband (2 mm × 4 cm × 11 cm) ojämlikt förbi sin elastiska gräns och sedan lossa den. De inhomogena kvarvarande plaststammar som återstår gör att arket slappnar av till ett böjt tillstånd. Måttliga stretching stammar (5 %) leder till en sadelliknande form, och stora stretching stammar (-20 %) leder till krusningar längs kanten, visas i Bild. 1B, tillsammans med de laterala stamfördelningarna som visas i bild. Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Denna lutning i plaststam introduceras enkelt genom att dra kanterna på skummet med fingrarna och det leder till en plaststam som toppar längs kanten och minskar mot mittlinjen. Vi ser att effekten av den inhomogena reststammen är likvärdig med effekten av inhomogen, tillväxtinducerad stam *. Analoga fenomen uppstår på andra håll och kanske har råd med enklare sätt att förstå den grundläggande mekanismen för att forma en lamina. När man till exempel stickar eller virkar en halsduk, om antalet stygn eller knutar per längdenhet ökas när man rör sig bort från mittlinjen, bildar halsduken först en sadelform eftersom en sådan form lätt rymmer den lilla överskjutande längden på kanterna i förhållande till mitten. Så småningom blir kantlängden så stor att kanten själv börjar krusa. Ett liknande fenomen ses i potatischips som görs genom att steka cirkulära skivor av mjuk, våt | Haiyi m.fl. REF producerar en modell som använder geometriska såväl som tillväxtkontrollparametrar för att bestämma formen av ändlig lamina. | 85,850 | The shape of a long leaf | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Materials Science', 'Medicine']} | 4,615 |
Flerpersoners pose assessment i det vilda är utmanande. Även om toppmoderna mänskliga detektorer har visat goda prestanda, små fel i lokalisering och igenkänning är oundvikliga. Dessa fel kan orsaka misslyckanden för en enda person utgör estimator (SPPE), särskilt för metoder som enbart är beroende av mänskliga detektionsresultat. I detta dokument föreslår vi en ny regional ram för bedömning av flera personers ställning (RMPE) för att göra det lättare att göra en uppskattning i närvaro av oriktiga begränsande rutor för människor. Vårt ramverk består av tre komponenter: Symmetric Spatial Transformer Network (SSTN), Parametric Pose Non-Maximum-Suppression (NMS) och Pose-Guided Propositions Generator (PGPG). Vår metod kan hantera felaktiga avgränsande rutor och överflödiga upptäckter, vilket gör det möjligt att uppnå 76.7 mAP på MPII (multi person) dataset [3]. Vår modell och källkod görs allmänt tillgänglig. †............................................................... | Hao och al. I Ref föreslås ett regionalt ramverk för flera personers pose estimation (RMPE), som underlättar estimering i de felaktiga begränsande rutorna för människor genom att införa fler komponenter i deras pipeline för att förfina upptäckten och ge estimeringsresultat. | 6,529,517 | RMPE: Regional Multi-person Pose Estimation | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 4,616 |
Förutbildning och finjustering, t.ex., BERT (Devlin et al., 2018), har uppnått stor framgång i språkförståelse genom att överföra kunskap från resursrik pre-utbildning uppgift till låg / noll-resurs nedströms uppgifter. Inspirerad av framgången med BERT föreslår vi MAsked Sequence till Sequence pre-training (MASS) för kodare-dekoder baserad språkgeneration. MASS antar ramen för kodare-avkodare för att rekonstruera ett meningsfragment med tanke på den återstående delen av meningen: dess kodare tar en mening med slumpmässigt maskerade fragment (flera på varandra följande polletter) som ingång, och dess avkodare försöker förutsäga detta maskerade fragment. På så sätt kan MASS gemensamt utbilda kodaren och dekodern för att utveckla förmågan att ta fram representations- och språkmodeller. Genom att ytterligare finjustera på en mängd olika noll-/lågresursspråksgenereringsuppgifter, inklusive neural maskinöversättning, textsammanfattning och konversationssvarsgenerering (3 uppgifter och totalt 8 datauppsättningar), uppnår MASS betydande förbättringar över baslinjer utan förutbildning eller med andra förutbildningsmetoder. Speciellt uppnår vi toppmodern noggrannhet (37,5 när det gäller BLEU-poäng) på den oövervakade engelska-franska översättningen, även slå den tidiga uppmärksamhetsbaserade övervakade modellen (Bahdanau et al., 2015b) 1. | MASS REF fokuserar på förutbildning för genereringsuppgifter. | 146,808,476 | MASS: Masked Sequence to Sequence Pre-training for Language Generation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,617 |
Ett delat tvåspråkigt ord som inbäddar utrymme (SBWES) är en oumbärlig resurs i en mängd gränsöverskridande NLP och IR uppgifter. En vanlig metod för SB-WES-induktionen är att lära sig en kartläggningsfunktion mellan enspråkiga semantiska utrymmen, där kartläggningen är beroende av ett fröord lexicon som används i inlärningsprocessen. I detta arbete analyserar vi betydelsen och egenskaperna hos frölexikon för SBWES-induktionen över olika dimensioner (dvs. lexikonkälla, lexikonstorlek, översättningsmetod, översättningsparets tillförlitlighet). På grundval av vår analys föreslår vi en enkel men effektiv tvåspråkig modell för inbäddning av tvåspråkiga ord (BWE). Denna modell (HYBWE) lär sig kartläggningen mellan två enspråkiga inbäddningsutrymmen med endast mycket tillförlitliga symmetriska översättning par från ett frö dokument nivå inbäddning utrymme. Vi utför tvåspråkigt lexikoninlärning (BLL) med 3 språkpar och visar att genom att noggrant välja pålitliga översättning par vår nya HYBWE modell överträffar benchmarking BWE lärande modeller, som alla använder dyrare tvåspråkiga signaler. Effektivt, Vi visar att en SBWES kan induceras genom att utnyttja endast en mycket svag tvåspråkig signal (dokument anpassningar) tillsammans med enspråkig data. | En annan forskningslinje i denna ven är arbetet med REF, som analyserar hur egenskaper i utsädeslexikon påverkar tvåspråkig ordbok induktion över olika dimensioner (dvs. lexikon källa, lexikon storlek, översättningsmetod, översättning par tillförlitlighet). | 17,515,652 | On the Role of Seed Lexicons in Learning Bilingual Word Embeddings | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,618 |
De framtida trådlösa nätverken föreställer sig ultratillförlitlig kommunikation med effektiv användning av de begränsade trådlösa kanalresurserna. Repetitionsprotokoll med slutet kretslopp där återsändning av ett paket är aktiverat med hjälp av en återkopplingskanal har antagits sedan de första dagarna av trådlös telekommunikation. Protokoll såsom automatisk upprepad begäran (ARQ) används i dagens trådlösa teknik som ett medel för att ge länken med minskad hastighet av paket avbrott och ökad genomsnittlig genomströmning. Resultaten av sådana protokoll är starkt beroende av återkopplingskanalens tillförlitlighet. Detta dokument studerar problemet med feedback fel och föreslår en ny metod för att erkänna paketleverans för retransmission protokoll i opålitliga feedback kanal villkor. Den föreslagna metoden är baserad på bakåt sammansatt bekräftelse från flera paket i en retransmission protokoll och ger schemaläggaren för den trådlösa kanalen med ytterligare parametrar för att konfigurera ultra-tillförlitlig kommunikation för en användare beroende på kanalkvalitet. Numerisk analys presenteras som visar att den föreslagna metodens tillförlitlighet ökar i storleksordning jämfört med ARQ på bekostnad av en liten ökning av den genomsnittliga tidsfördröjningen. | En metod för att erkänna paketleverans för retransmission protokoll med opålitlig feedback har föreslagits i REF. | 28,605,623 | Analysis of Feedback Error in Automatic Repeat reQuest | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,619 |
Energieffektiv kommunikation är en plenarfråga inom trådlösa sensornätverk (WSN). Samtida energieffektiva optimeringssystem fokuserar på att minska strömförbrukningen i olika aspekter av maskinvarudesign, databehandling, nätverksprotokoll och operativsystem. I detta papper, är optimering av nätverket formuleras av Cuckoo Based Partikel Approach (CBPA). Noder utplaceras slumpmässigt och organiseras som statiska kluster av Cuckoo Search (CS). Efter att klusterhuvudena har valts in samlas informationen in, aggregeras och vidarebefordras till basstationen med hjälp av generaliserad algoritm för partikelinflygning. Den generaliserade partikelmodellen Algoritm (GPMA) omvandlar problemet med nätenergiförbrukning till dynamik och kinematik hos många partiklar i ett kraftfält. Det föreslagna tillvägagångssättet kan avsevärt förlänga nätverkets livslängd jämfört med traditionella metoder. | Dhivya m.fl. REF antog Cuckoo Based Partikel Approach (CBPA) för att optimera nätverket. | 1,675,033 | Energy Efficient Computation of Data Fusion in Wireless Sensor Networks Using Cuckoo Based Particle Approach (CBPA) | {'venue': 'IJCNS', 'journal': 'IJCNS', 'mag_field_of_study': ['Computer Science']} | 4,620 |
I detta dokument beskrivs hur man kan generera kompositioner av semantiska webbtjänster med hjälp av information om socialt förtroende från användarbetyg på tjänsterna. Vi presenterar en taxonomi av funktioner, såsom driftskompatibilitet, tillgänglighet, integritet, säkerhet, och andra. Vi beskriver ett sätt att beräkna socialt förtroende för OWL-S-stil semantiska webbtjänster. Vår formalism utnyttjar användarnas betyg på tjänsterna och utförandeegenskaperna hos dessa tjänster. Vi beskriver vår service-komposition algoritm, kallad Trusty, som bygger på denna formalism. Vi diskuterar de formella egenskaperna hos Trusty och vårt genomförande av algoritmen. Vi presenterar våra experiment där vi jämförde Trusty med SHOP2, en välkänd AI planeringsalgoritm som framgångsrikt har använts för OWL-S stil service komposition. Våra resultat visar att Trusty genererar mer tillförlitliga kompositioner än SHOP2. | Mer specifika tillämpningar av denna idé inkluderar att använda förtroende för semantiska webbtjänstens sammansättning REF. | 11,910,183 | Semantic Web Service Composition in Social Environments | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,621 |
I ett modernt rekommendationssystem är det viktigt att förstå hur produkter relaterar till varandra. Till exempel, medan en användare letar efter mobiltelefoner, kan det vara vettigt att rekommendera andra telefoner, men när de köper en telefon, kanske vi istället vill rekommendera batterier, lådor eller laddare. Dessa två typer av rekommendationer kallas substitut och komplement: substitut är produkter som kan köpas i stället för varandra, medan komplement är produkter som kan köpas utöver varandra. Här utvecklar vi en metod för att dra slutsatser om nätverk av utbytbara och kompletterande produkter. Vi formulerar detta som en övervakad länk förutsägelse uppgift, där vi lär semantik av substitut och komplement från data i samband med produkter. Den primära källan till data vi använder är texten i produktrecensioner, även om vår metod också använder sig av funktioner som betyg, specifikationer, priser och varumärken. Metodiskt bygger vi ämnesmodeller som är utbildade för att automatiskt upptäcka ämnen från text som är framgångsrika i att förutsäga och förklara sådana relationer. Experimentellt utvärderar vi vårt system på Amazon produktkatalog, en stor datauppsättning bestående av 9 miljoner produkter, 237 miljoner länkar och 144 miljoner recensioner. | Punkt A ersätter punkt B om A kan köpas istället för B, medan punkt A kompletterar punkt B om det kan köpas utöver B REF. | 9,396,978 | Inferring Networks of Substitutable and Complementary Products | {'venue': "KDD '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,622 |
Abstract-Den sekventiella och obestämd beteende av en slut-around-carry (EAC) adder undersöks. Detta beteende förbises ofta i litteraturen. Konstruktionsändringar för att införa determinism tillhandahålls. Dessa ändringar eliminerar också den besvärande negativa nolla som finns i ens komplementnummersystem. Index Terms-End-around-carry (EAC) adder, negativ noll, ens komplement aritmetisk. Bilda. 1................................................................ End-around-carry (EAC) adder antas vanligen utgöra en unik summa för varje möjligt par av addends. Framför allt är resultatet av att lägga till ett antal och dess komplement allmänt anses vara negativ noll [1], [2]. Denna övertygelse ledde till utformningen av en subtraktiv adder (en subtraktor som kompletterar subtrahend) för den fasta tilläggsenheten i CDC 6600 [5]. Man trodde att en sådan adder alltid skulle summera ett tal och dess komplement till positiv nolla istället för den besvärliga negativa nollan. I själva verket, för båda adder i Fig. 1 och en iterativ cell "subtraktiv" adder, summan kan vara positiv eller negativ noll beroende på föregående addends och den relativa förökning förseningar i adder. För varje cell i tillägget i bild. 1, är genomförandet lika med inflyttningen när addend ingångslinjerna A och B antar carry-propagating värden (A,B = 0,1 eller 1,0). När ett nummer och dess komplement läggs till, har varje cells addend-inmatningslinjer bärförökningsvärden och bärlinjerna kan anta en av två stabila tillstånd. Alla bärlinjer kan vara 0, vilket resulterar i en negativ nollsumma, eller alla bärlinjer kan vara 1, vilket resulterar i en positiv nollsumma. Bilda. 2 visar att valet mellan dessa två möjliga tillstånd kan bero antingen på de föregående värdena för bärlinorna eller på den relativa fördröjningen av spridningen i adden. På bild. 2 a) (Fig. 2 b) ) Alla 0 (1) tillstånd för transportlinjerna i det första tillägget bevaras i det andra tillägget, vilket leder till en negativ (positiv) nollsumma. Tilläggen i det andra tillägget är desamma i båda figurerna. 2 a och b, men beloppen skiljer sig åt. I detta fall, 'värden av tilläggen i det första tillägget påverkar summan i det andra tillägget; adder uppvisar sekventiellt beteende. På bild. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Eftersom bär utdata beror på bär indata, en direkt anslutning mellan dem bildar en kombinationsslinga som kan leda till en oönskad ras villkor REF. | 14,661,474 | Comment on the Sequential and Indeterminate Behavior of an End-Around-Carry Adder | {'venue': 'IEEE Trans. Computers', 'journal': 'IEEE Trans. Computers', 'mag_field_of_study': ['Computer Science']} | 4,623 |
Ett stabilt konstruktionsflöde måste fånga upp konstruktioner på väldefinierade abstraktionsnivåer och gå vidare mot ett effektivt genomförande. De kritiska besluten omfattar systemets arkitektur, som kommer att utföra de beräknings- och kommunikationsuppgifter som är förknippade med designens övergripande specifikation. Att förstå applikationsdomänen är viktigt för att säkerställa en effektiv användning av designflödet. Idag saknar designkedjan tillräckligt stöd. De flesta formgivare på systemnivå använder en samling verktyg som inte är kopplade till varandra. Implementeringen fortsätter sedan med informella tekniker som involverar många mänskliga-språksinteraktioner som skapar onödiga och oönskade iterationer bland grupper av designers i olika företag eller olika divisioner. Dessa grupper har föga förståelse för sina respektive kunskapsområden. Utvecklare kan därför inte vara säkra på att dessa verktyg, kopplade genom manuell eller empirisk översättning av mellanformat, kommer att bevara designens semantik. Denna osäkerhet leder ofta till fel som är svåra att identifiera och felsöka. Flytten mot programmerbara plattformar förskjuter designimplementeringsuppgiften mot inbäddad programvarudesign. När inbäddad programvara når den komplexitet som är typisk för dagens design ökar risken dramatiskt för att programvaran inte kommer att fungera korrekt. Denna risk beror främst på bristfälliga designmetoder och ömtåliga programvarusystemarkitekturer, som beror på att funktionaliteten växer över ett befintligt genomförande som kan vara ganska gammalt och odokumenterat. Metropolis-projektet syftar till att utveckla en enhetlig ram som kan hantera dessa utmaningar. Vi designade Metropolis för att tillhandahålla en infrastruktur baserad på en modell med exakt semantik som är tillräckligt allmän för att stödja befintliga beräkningsmodeller 1 och rymma nya. Denna metamodell kan stödja inte bara funktionalitet fånga och analys, men också arkitektur beskrivning och kartläggning av funktionalitet till arkitektoniska element. Metropolis använder ett logiskt språk för att fånga icke-funktionella och förklarande begränsningar. Eftersom modellen har en exakt semantik kan den förutom simulering stödja flera syntes- och formella analysverktyg. Den första designaktiviteten som Metropolis stödjer, kommunikationen av design intention och resultat, fokuserar på samspelet mellan människor som arbetar på olika abstraktionsnivåer och bland människor som arbetar samtidigt på samma abstraktionsnivå. Metamodellen innehåller begränsningar som representerar abstrakta krav som ännu inte implementerats eller antas vara uppfyllda av resten av systemet och dess miljö. Metropolis bygger på en metamodell med formella semantik som utvecklare kan använda för att fånga design, och ger en miljö för komplex design av elektroniska system som stöder simulering, formell analys och syntes. | Metropolis REF tillhandahåller en meta-modell med formella semantik för att fånga och analysera elektroniska systemdesigner på flera nivåer av abstraktioner. | 206,446,849 | Metropolis: an integrated electronic system design environment | {'venue': 'IEEE Computer', 'journal': 'IEEE Computer', 'mag_field_of_study': ['Computer Science']} | 4,624 |
Abstract-Latent fingeravtryck tjänar som en viktig källa till kriminaltekniska bevis i en domstol. Automatisk matchning av latenta fingeravtryck till rullade/plain (exemplar) fingeravtryck med hög noggrannhet är ganska viktigt för sådana tillämpningar. Dock latenta intryck är typiskt av dålig kvalitet med komplexa bakgrundsljud som gör funktionen extraktion och matchning av latentas ett betydligt utmanande problem. Vi föreslår att inkorporera top-down information eller feedback från ett exempel för att förfina de funktioner som extraheras från en latent för att förbättra latent matchande noggrannhet. De förfinade latenta egenskaperna (t.ex. Lus orientering och frekvens), efter feedback, används för att åter-matcha latenta till den översta K-kandidat exemplars returneras av baslinje matcher och ta kandidatlistan. Bidragen från denna forskning inkluderar: (i) utforma systemiska sätt att använda information i exemplars för latent funktion förfining, (ii) utveckla en återkoppling paradigm som kan lindas runt någon latent matcher för att förbättra sin matchande prestanda, och (iii) bestämma när återkoppling är faktiskt nödvändigt för att förbättra latent matchning noggrannhet. Experimentella resultat visar att integrering av den föreslagna återkoppling paradigmet med en toppmodern latent matcher förbättrar sin identifiering noggrannhet med 0,5-3,5 procent för NIST SD27 och WVU latenta databaser mot en bakgrundsdatabas av 100k exemplars. | En annan latent fingeravtryck matchning infördes i REF gav en inblick i att förbättra latent matchning noggrannhet med hjälp av feedback paradigm. | 1,224,315 | Latent Fingerprint Matching: Performance Gain via Feedback from Exemplar Prints | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,625 |
Abstract-Trots de senaste landvinningarna i stabila dynamiska promenader för många humanoida robotar, relativt lite navigering autonomi har uppnåtts. I synnerhet är möjligheten att självständigt välja positioner fotplacering för att undvika hinder medan promenader ett viktigt steg mot förbättrad navigering autonomi för humanoider. Vi presenterar en fotsteg planerare för Honda ASIMO humanoid robot som planerar en sekvens av fotsteg positioner för att navigera mot en målplats samtidigt undvika hinder. De möjliga framtida fotplaceringspositionerna är beroende av robotens nuvarande tillstånd. Med hjälp av en ändlig uppsättning tillståndsberoende åtgärder använder vi en A*-sökning för att beräkna optimala sekvenser av fotstegsplatser upp till en tidsbegränsad planeringshorisont. Vi presenterar experimentella resultat som visar roboten navigerar genom både statiska och dynamiska kända miljöer som inkluderar hinder som rör sig på förutsägbara banor. | I REF (Honda ASIMOTM) planerar de en sekvens av fotsteg positioner för att navigera mot en målplats samtidigt undvika statiska och dynamiska hinder, deras metod använder en tidsbegränsad planeringshorisont. | 3,145,517 | Footstep Planning for the Honda ASIMO Humanoid | {'venue': 'Proceedings of the 2005 IEEE International Conference on Robotics and Automation', 'journal': 'Proceedings of the 2005 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,626 |
När man betraktar person omidentifiering (re-ID) som en hämtningsprocess är omplacering ett viktigt steg för att förbättra dess exakthet. Men i den nya ID-gemenskapen har begränsade ansträngningar gjorts för att omvärdera, särskilt de helt automatiska, oövervakade lösningarna. I detta dokument föreslår vi en -ömsesidig kodningsmetod för att omvärdera resultaten. Vår hypotes är att om en bild av galleriet liknar sonden i de - ömsesidiga närmaste grannarna, är det mer sannolikt att det är en sann matchning. Specifikt, med tanke på en bild, areciprocal funktionen beräknas genom att koda dess -reciprocal närmaste grannar till en enda vektor, som används för omplacering under Jaccard avstånd. Det slutliga avståndet beräknas som kombinationen av det ursprungliga avståndet och Jaccard-avståndet. Vår omplaceringsmetod kräver ingen mänsklig interaktion eller några märkta data, så det är tillämpligt på storskaliga datauppsättningar. Experiment på den storskaliga marknaden-1501, CUHK03, MARS och PRW datauppsättningar bekräftar effektiviteten av vår metod 1. * Motsvarande författare 1 Källkoden är tillgänglig på begäran. | REF tillämpar k-reciprocal närmaste granne omrangering till re-ID-problemet. | 206,595,765 | Re-ranking Person Re-identification with k-Reciprocal Encoding | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,627 |
I den här artikeln presenterar vi vårt arbete med att upptäcka kränkande språk på arabiska sociala medier. Vi tar fram en lista över obscena ord och hashtaggar med vanliga mönster som används i kränkande och oförskämd kommunikation. Vi klassificerar även Twitter-användare beroende på om de använder något av dessa ord eller inte i sina tweets. Vi utökar listan över obscena ord med denna klassificering, och vi rapporterar resultat på en nyskapad datauppsättning av klassade arabiska tweets (obscena, offensiva och rena). Vi gör denna datauppsättning fritt tillgänglig för forskning, förutom listan över obscena ord och hashtaggar. Vi släpper också offentligt en stor corpus av hemligstämplade användarkommentarer som togs bort från en populär arabisk nyhetssajt på grund av överträdelser av webbplatsens regler och riktlinjer. | En datauppsättning av obscena och stötande användarkommentarer och ord i arabiska sociala medier presenterades av REF. | 2,819,462 | Abusive Language Detection on Arabic Social Media | {'venue': 'ALW@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,628 |
Vi föreslår en mjuk uppmärksamhetsbaserad modell för uppgiften att identifiera åtgärder i videor. Vi använder flera lager Recurrent Neural Networks (RNN) med Long Short-Term Memory (LSTM) enheter som är djupa både rumsligt och tidsmässigt. Vår modell lär sig att fokusera selektivt på delar av videoramarna och klassificerar videor efter att ha tagit några glimtar. Modellen lär sig i huvudsak vilka delar i ramen som är relevanta för den aktuella uppgiften och fäster större vikt vid dem. Vi utvärderar modellen på UCF-11 (YouTube Action), HMDB-51 och Hollywood2 datauppsättningar och analyserar hur modellen fokuserar sin uppmärksamhet beroende på scenen och den handling som utförs. | Sharma et al Ref föreslog en modell för "mjuk uppmärksamhet" för erkännande av åtgärder. | 362,506 | Action Recognition using Visual Attention | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,629 |
Abstrakt. Vi utvecklar och analyserar algoritmer för spridning av en svärm av primitiva robotar i en okänd miljö, R. Det primära målet är att minimera makespan, det vill säga tiden att fylla hela regionen. En miljö består av pixlar som bildar en ansluten delmängd av heltals rutnätet. Det finns som mest en robot per pixel och robotar rör sig horisontellt eller vertikalt vid enhetshastighet. Robotar går in i R med hjälp av k ≥ 1 dörr pixlar Robotar är primitiva finita automata, endast med lokal kommunikation, lokala sensorer, och en konstant storlek minne. Vi ger först algoritmer för single-door fallet (dvs k = 1), analysera algoritmerna både teoretiskt och experimentellt Vi bevisar att våra algoritmer har optimal makespan 2A − 1, där A är området för R. Vi ger nästa en algoritm för multi-door fallet (k ≥ 1), baserat på en väggföljande version av ledaren-följare strategi. Vi bevisar att vår strategi är O(log(k + 1))-konkurrenskraftig, och att denna gräns är snäv för vår strategi och andra relaterade strategier. | Vi arbetar i en miljö som liknar REF, där tiden är synkron och robotar har lokala sensorer och ändligt minne. | 73,716 | Algorithms for Rapidly Dispersing Robot Swarms in Unknown Environments | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Engineering']} | 4,630 |
Cloud lagring är en allmänt utnyttjad tjänst för både personliga och företagskrav. Men trots dess fördelar, många potentiella användare med enorma mängder känsliga data (stora data) avstå från att fullt ut utnyttja molnlagringstjänsten på grund av giltiga farhågor om dataintegritet. En etablerad lösning på problemet med molndatasekretess är att utföra kryptering på klient-end. Detta tillvägagångssätt begränsar dock databehandlingskapaciteten (t.ex. sökning över data). Följaktligen är det forskningsproblem vi undersöker hur man kan möjliggöra realtidssökning över krypterade stora data i molnet. I synnerhet är semantisk sökning av intresse för kunder som sysslar med big data. För att ta itu med detta problem, i denna forskning, utvecklar vi ett system (benämnt S3BD) för att söka big data med hjälp av molntjänster utan att utsätta någon data för molnleverantörer. För att hålla realtid respons på big data beskär S3BD proaktivt sökytan till en delmängd av hela datauppsättningen. Därför föreslår vi en metod för att samla ihop de krypterade uppgifterna. Ett abstract av varje kluster upprätthålls på klient-end för att navigera sökningen till lämpliga kluster vid söktiden. Resultaten av experiment, utförda på verkliga big dataset, visar att sökningen kan utföras i realtid och är betydligt effektivare än andra motsvarigheter. Dessutom görs en fullt fungerande prototyp av S3BD tillgänglig för allmänheten. | S3BD REF är ett semantiskt söksystem baserat på krypterings- och beskärningsteknik på ett kluster av krypterade data för att minska söktiden. | 52,346,352 | S3BD: Secure Semantic Search over Encrypted Big Data in the Cloud | {'venue': 'CONCURRENCY AND COMPUTATION: PRACTICE AND EXPERIENCE (CCPE), Sep. 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,631 |
Abstrakt. Vi anser här den linjära minst kvadrater problem min y tillR n Ay − b 2 där b på R m och A på R m×n är en matris av full kolumn rank n och vi betecknar x dess lösning. Vi antar att både A och b kan vara perturbed och att dessa perturbations mäts med hjälp av Frobenius eller spektral norm för A och Euclidean norm för b. I detta dokument är vi bekymrade över tillståndsnumret för en linjär funktion av x (L T x där L på R n×k ) för vilken vi ger en skarp uppskattning som ligger inom en faktor 3 av det verkliga tillståndsnumret. Förutsatt att den triangulära R-faktorn A från A T A = R T R är tillgänglig, kan denna uppskattning beräknas i 2 kn 2 floppar. Vi föreslår också en statistisk metod som uppskattar det partiella tillståndsnumret genom att använda de exakta tillståndsnumren i slumpmässiga ortogonala riktningar. Om R finns tillgängligt gör detta statistiska tillvägagångssätt det möjligt att få en tillståndsuppskattning till en lägre beräkningskostnad. I fallet med Frobenius norm, vi härled en sluten formel för den partiella tillståndsnummer som är baserad på de singular värden och rätt singular vektorer av matrisen A. Nyckelord: Linjär minst kvadrater, normalt tillstånd nummer, statistisk tillståndsuppskattning, parameteruppskattning 1. Inledning. Perturbationsteorin har tillämpats på många problem med linjär algebra såsom linjära system, linjära minst kvadrater eller eigenvärdesproblem [1, 4, 11, 18]. I detta papper anser vi att problemet med att beräkna mängden L T x, där x är lösningen på det linjära minsta kvadratproblemet (LLSP) min x på R n Ax − b 2 där b på R m och A på R m×n är en matris med full kolumn rank n. Denna uppskattning är ett grundläggande problem för parameteruppskattning inom ramen för p. 137]. Mer exakt, vi fokuserar här på utvärderingen av känsligheten för L T x till små störningar av matrisen A och / eller höger sida b, där L på R n×k och x är lösningen på LLSP. Intresset för denna fråga härrör till exempel från parameteruppskattning där modellens parametrar ofta kan delas in i två delar: variablerna fysisk signifikans och en uppsättning kompletterande variabler som ingår i modellerna. Till exempel uppstår denna situation vid fastställandet av positioner med hjälp av GPS-systemet, där 3D-koordinaterna är de mängder av intresse men den statistiska modellen omfattar andra parametrar som klockdrift och GPS-mångfald [12] som i allmänhet uppskattas under lösningsprocessen. Det är då viktigt att se till att lösningskomponenterna av intresse kan beräknas med tillfredsställande noggrannhet. Huvudsyftet med detta dokument är att formalisera detta problem i form av ett tillståndsnummer och att beskriva praktiska metoder för att beräkna eller uppskatta denna mängd. Observera att när det gäller känsligheten hos en delmängd av lösningskomponenterna är matrisen L en projektion vars kolumner består av vektorer av den kanoniska basen av R n. | REF beaktade perturbationer som mäts i olika normer (Frobenius eller spektralnormen för A och Euclidean norm för b ), och härledde tillståndsnumret för x uttryckt i viktade produktnormer. | 7,457,595 | A partial condition number for linear least squares problems | {'venue': 'SIAM Journal on Matrix Analysis and Applications', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,632 |
Abstrakt. Allt fler forskarsamfund förlitar sig på Semantic Web ontologies för att dela och tolka data inom och över forskningsområden. Dessa gemensamma kunskapsrepresentationsresurser brukar utvecklas och underhållas manuellt och i huvudsak samutvecklas tillsammans med experimentella bevis som produceras av forskare över hela världen. Att automatiskt upptäcka skillnaderna mellan (två) versioner av samma ontologi för att lagra eller visualisera deras delta är en utmanande uppgift för e-vetenskap. I detta dokument fokuserar vi på språk som gör det möjligt att formulera koncisa och intuitiva delta, som är tillräckligt uttrycksfulla för att entydigt beskriva alla möjliga förändringar och som kan upptäckas effektivt. Vi föreslår ett specifikt språk som bevisligen uppvisar dessa egenskaper och ger en förändringsdetektionsalgoritm som är ljud och komplett med avseende på det föreslagna språket. Slutligen ger vi en lovande experimentell utvärdering av vårt ramverk med hjälp av verkliga ontologier från de kulturella och bioinformatiska domänerna. | I REF föreslog författaren ett språk som gör det möjligt att formulera intuitionen bakom varje tillämpad ändring i en RDF-graf och gav ändringsdetektionsalgoritm med avseende på det föreslagna språket. | 6,268,636 | On Detecting High-Level Changes in RDF/S KBs | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,633 |
Att hitta negationssignaler och deras räckvidd i text är en viktig deluppgift i informationsutdrag. I denna uppsats presenterar vi ett maskininlärningssystem som finner omfattningen av negation i biomedicinska texter. Systemet kombinerar flera klassificeringar och fungerar i två faser. För att undersöka robustheten i tillvägagångssättet testas systemet på de tre subcorpora av BioScope corpus som representerar olika texttyper. Det uppnår de bästa resultaten hittills för denna uppgift, med en felminskning på 32,07 % jämfört med nuvarande toppresultat. | Morante och Daelemans REF utvecklade en tvåfasstrategi för att upptäcka omfattningen av negation i biomedicinsk litteratur. | 14,439,287 | A Metalearning Approach to Processing the Scope of Negation | {'venue': 'CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,634 |
Sociala medier som de som bor på populära fotodelningswebbplatser drar till sig allt större uppmärksamhet under de senaste åren. Som en typ av användargenererade data är visdomen hos publiken inbyggd i sådana sociala medier. I synnerhet, miljontals användare laddar upp till Flickr sina bilder, många förknippas med temporal och geografisk information. I den här artikeln undersöker vi hur man kan rangordna de banamönster som bryts från de uppladdade fotona med geotaggar och tidsstämpelr. Huvudsyftet är att avslöja den kollektiva visdom som registrerats i de till synes isolerade fotona och de enskilda resesekvenser som återspeglas av de geo-taggade bilderna. Istället för att fokusera på gruvdrift frekventa bana mönster från geo-taggade sociala medier, vi satsa mer på att ranka minerad bana mönster och diversifiera rankingen resultat. Genom att utnyttja relationerna mellan användare, platser och banor rankar vi banans mönster. Vi använder sedan en exemplar-baserad algoritm för att diversifiera resultaten för att upptäcka de representativa banan mönster. Vi har utvärderat den föreslagna ramen för 12 olika städer med hjälp av Flickr-data och visat dess effektivitet. | Z. Yin m.fl. REF-gruva och rankningsbana mönster från geo-taggade bilder och diversifiera rankingresultaten. | 6,250,415 | Diversified trajectory pattern ranking in geo-tagged social | {'venue': 'In CVPR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,635 |
Korsentropiförlust tillsammans med softmax är utan tvekan en av de vanligaste övervakningskomponenterna i konvolutionella neurala nätverk (CNN). Trots dess enkelhet, popularitet och utmärkta prestanda, uppmuntrar komponenten inte uttryckligen diskriminerande lärande av funktioner. I detta dokument föreslår vi en generaliserad stor marginal softmax (L-Softmax) förlust som uttryckligen uppmuntrar intra-klass kompaktitet och mellanklass separerbarhet mellan inlärda funktioner. Dessutom kan L-Softmax inte bara justera den önskade marginalen utan också undvika övermontering. Vi visar också att L-Softmax förlust kan optimeras genom typiska stokastisk lutning nedstigning. Omfattande experiment på fyra referensdatauppsättningar visar att de djupt lärda funktionerna med L-softmax förlust blir mer diskriminerande, vilket avsevärt ökar prestandan på en mängd olika visuella klassificerings- och verifieringsuppgifter. | Dessutom föreslås den stora marginalen softmax förlust (L-Softmax) REF ) för att generalisera softmax förlust till stor marginal softmax, vilket leder till större vinkel separerbarhet mellan inlärda funktioner. | 1,829,423 | Large-Margin Softmax Loss for Convolutional Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,636 |
Neural maskinöversättning är en nyligen föreslagen metod för maskinöversättning. Till skillnad från den traditionella statistiska maskinöversättning, den neurala maskinen översättning syftar till att bygga ett enda neuralt nätverk som kan gemensamt ställa in för att maximera översättningen prestanda. De modeller som nyligen föreslagits för neural maskinöversättning hör ofta till en familj av kodare-dekodrar och koda en käll mening till en fast längd vektor från vilken en dekoder genererar en översättning. I detta dokument antar vi att användningen av en vektor med fast längd är en flaskhals för att förbättra prestandan hos denna grundläggande encoder-dekoder arkitektur, och föreslår att förlänga detta genom att tillåta en modell att automatiskt (mjuk-) söka efter delar av en käll mening som är relevanta för att förutsäga ett målord, utan att behöva bilda dessa delar som ett hårt segment explicit. Med detta nya tillvägagångssätt uppnår vi en översättningsprestanda som är jämförbar med det befintliga toppmoderna frasbaserade systemet på uppgiften att översätta engelska till franska. Dessutom visar den kvalitativa analysen att de (mjuka) anpassningar som modellen har funnit stämmer väl överens med vår intuition. | REF introducerar uppmärksamhet mekanism för sekvens-till-sekvens-modellen och det avsevärt förbättrar modellens prestanda på uppgiften maskinöversättning. | 11,212,020 | Neural Machine Translation by Jointly Learning to Align and Translate | {'venue': 'ICLR 2015', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,637 |
Abstract-Vi anser att problemet med att optimera antalet repliker för händelseinformation i trådlösa sensornätverk, när frågor sprids med hjälp av expanderande ringar. Vi får sluten form approximationer för de förväntade energikostnaderna för sökning, samt replikering. Med hjälp av dessa uttryck härleder vi replikeringsstrategier som minimerar den förväntade totala energikostnaden bestående av sök- och replikeringskostnader, både med och utan lagringskrav. I båda fallen finner vi att händelser bör replikeras med en frekvens som är proportionell mot kvadratroten av deras frågehastigheter. Vi validerar vår analys och optimering genom en uppsättning realistiska simuleringar som inkluderar icke-idealiteter inklusive spridning gränseffekter och förlorade trådlösa länkar. | Krishnanmachari och Ahn optimerade antalet data repliker för händelseinformation i trådlösa sensornätverk REF. | 11,990,271 | Optimizing Data Replication for Expanding Ring-based Queries in Wireless Sensor Networks | {'venue': '2006 4th International Symposium on Modeling and Optimization in Mobile, Ad Hoc and Wireless Networks', 'journal': '2006 4th International Symposium on Modeling and Optimization in Mobile, Ad Hoc and Wireless Networks', 'mag_field_of_study': ['Computer Science']} | 4,638 |
De representationer som de djupa neurala nätverken lärt sig är svåra att tolka delvis på grund av deras stora parameterutrymme och de komplexiteter som införs genom deras flerskiktsstruktur. Vi introducerar en metod för att beräkna persistent homologi över den grafiska aktiveringsstrukturen i neurala nätverk, som ger tillgång till de uppgiftsrelevanta understrukturer som aktiveras i hela nätverket för en given inmatning. Detta topologiska perspektiv ger unika insikter i de distribuerade representationer som kodas av neurala nätverk i form av deras aktiveringsstrukturer. Vi visar värdet av detta tillvägagångssätt genom att visa en alternativ förklaring till förekomsten av kontradiktoriska exempel. Genom att studera topologin för nätverksaktiveringar över flera arkitekturer och datauppsättningar, finner vi att kontrarisiva perturbationer inte lägger till aktiveringar som riktar sig till den semantiska strukturen i den kontrarisiva klassen som tidigare hypotes. I stället kan kontradiktoriska exempel förklaras eftersom förändringar i de dominerande aktiveringsstrukturerna som framkallas av den ursprungliga bilden, vilket tyder på att de klassrepresentationer som lärs av djupa nätverk är problematiskt glesa på inmatningsutrymmet. | På samma sätt analyserar författarna till REF den 0-dimensionella persistenthomologiska strukturen av neurala nätverk aktiveringar och finner att denna struktur är nära kopplad till de representationer som används av nätverket för att fatta klassificeringsbeslut. | 170,078,896 | Characterizing the Shape of Activation Space in Deep Neural Networks | {'venue': '2019 18th IEEE International Conference On Machine Learning And Applications (ICMLA)', 'journal': '2019 18th IEEE International Conference On Machine Learning And Applications (ICMLA)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,639 |
Abstrakt. I det här dokumentet visar vi en poängbaserad indexeringsmetod för tennisvideor. Med tanke på en sändning tennis video (btv), indexerar vi alla videosegment med sina poäng för att skapa en navigatorisk och sökbar match. Vår infallsvinkel segmenterar temporallyt i videon och känner sedan igen poängen från vart och ett av segmenten, innan du förfinar poängen med hjälp av kunskaperna i tennis scoring systemet. Vi bygger slutligen ett gränssnitt för att enkelt hämta och visa relevanta videosegment genom att också automatiskt märka segmenterade möten med mänskliga tillgängliga taggar som "fault" och "deuce". Effektiviteten i vår strategi visas på btv: s från två stora tennisturneringar. | Ghosh m.fl. REF segmenterade tidsmässigt rallyna i videon med hjälp av poäng som visas på TV-skärmen och förfinade det erkända resultatet med hjälp av ett tennis scoring system. | 1,752,144 | SmartTennisTV: Automatic indexing of tennis videos | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,640 |
Mobila apputvecklare förlitar sig starkt på standard API-ramverk och bibliotek. Att lära sig API-användningar är dock ofta en utmaning på grund av API-ramverkens snabba förändring för mobila system och bristen på API-dokumentation och källkodsexempel. I det här dokumentet föreslår vi ett nytt tillvägagångssätt för att lära API-användningar från bytekod av Android-mobilappar. Våra kärnbidrag inkluderar HAPI, en statistisk modell av API-användningar och tre algoritmer för att extrahera metodanropssekvenser från appars bytekod, för att träna HAPI baserat på dessa sekvenser, och för att rekommendera metodanrop i kodkomplettering med hjälp av de utbildade HAPIs. Vår empiriska utvärdering visar att vårt prototypverktyg effektivt kan lära sig API-användningar från 200 tusen appar som innehåller 350 miljoner metodsekvenser. Den rekommenderar nästa metod kallar med topp-3 noggrannhet på 90% och överträffar baslinje tillvägagångssätt i genomsnitt 10-20%. Statistisk modell, API-användning, mobilappar 2016 IEEE/ACM 38:e IEEE International Conference on Software Engineering | Nguyen m.fl. REF föreslog en metod för att lära API-användningar från byte-kod. | 12,524,715 | Learning API usages from bytecode: a statistical approach | {'venue': None, 'journal': 'Proceedings of the 38th International Conference on Software Engineering', 'mag_field_of_study': ['Computer Science']} | 4,642 |
Sammanfattning av denna webbsida: Detta papper behandlar problemet med måltäckning i trådlösa sensornätverk med justerbart sensorintervall. Kommunikation och avkänning förbrukar energi, vilket gör att effektiv energihantering kan förlänga nätets livslängd. I detta dokument anser vi att ett stort antal sensorer med justerbart avkänningsområde är slumpmässigt utplacerade för att övervaka ett antal mål. Eftersom mål är överflödigt täckta av flera sensorer, för att spara energiresurser, kan sensorer organiseras i uppsättningar, aktiveras successivt. I det här dokumentet behandlar vi problemet med justerbara Range Set Covers (AR-SC) som har som mål att hitta ett maximalt antal set covers och de intervall som är förknippade med varje sensor, så att varje sensor set täcker alla mål. En sensor kan delta i flera sensoruppsättningar, men summan av den energi som förbrukas i varje uppsättning begränsas av de ursprungliga energiresurserna. I denna uppsats modellerar vi matematiskt lösningar på detta problem och designheuristik som effektivt beräknar uppsättningarna. Simuleringsresultat presenteras för att verifiera våra metoder. | M. Cardei vid el REF föreslår det justerbara mätområdet set-cover problem och syftet med detta problem är att hitta ett maximalt antal täckuppsättningar och justerbara intervall för alla mål. | 7,592,552 | Improving network lifetime using sensors with adjustable sensing ranges | {'venue': 'IJSNet', 'journal': 'IJSNet', 'mag_field_of_study': ['Computer Science']} | 4,643 |
Abstrakt. Maskininlärningsmetoder för klassificeringsproblem antar vanligen att klassvärdena är oordnade. Men i många praktiska tillämpningar uppvisar klassvärdena en naturlig ordning, till exempel när man lär sig att gradera. Standardmetoden för ordinalklassificering omvandlar klassvärdet till en numerisk kvantitet och tillämpar en regressionsinlärare på de omvandlade uppgifterna och omvandlar produktionen tillbaka till ett diskret klassvärde i ett efterbehandlingssteg. En nackdel med denna metod är att den endast kan tillämpas i samband med ett regressionssystem. I det här dokumentet presenterar vi en enkel metod som gör det möjligt för standardklassificeringsalgoritmer att använda sig av beställningsinformation i klassattribut. Genom att tillämpa den tillsammans med en beslutsträdslärare visar vi att den överträffar det naiva tillvägagångssättet, som behandlar klassvärdena som en oordnad uppsättning. Jämfört med specialalgoritmer för ordinal klassificering har vår metod fördelen att den kan tillämpas utan någon ändring av det underliggande inlärningssystemet. | Frank och Hall REF presenterade en enkel metod som gör det möjligt för standardklassificeringsalgoritmer att använda beställningsinformation i klassattribut. | 12,269,265 | M.: A simple approach to ordinal classification | {'venue': 'In: Proc 12th Europ Conf on Machine Learning', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,644 |
I detta dokument presenteras en undersökning av litteraturen om tillämpningen av operativ forskning (OR) inom hälso- och sjukvården, med särskild inriktning på beteendemässiga överväganden. För att undersöka i vilken utsträckning beteendeaspekter ingår, gör vi en sökning på de mest relevanta OR-tidskrifterna efter artiklar med innehåll relaterade till representation av beteende i modeller, bevis på beteendeförändring med hjälp av modeller, och påverkan på organisationer utöver användning av en modell. En detaljerad analys av 130 artiklar presenteras och visar att majoriteten fokuserar på att förbättra tillhandahållandet av tjänster på organisatorisk nivå. De vanligaste OR-metoderna som skildrar beteende är simulering och kvalitativa metoder, men det finns belägg för att de används inom en rad olika metoder. I många fall erkänner författarna emellertid inte nödvändigtvis beteendeaspekterna i sina dokument. Med tanke på att många aspekter av hälso- och sjukvården påverkas av mänskligt beteende är det viktigt att det framtida arbetet tydligare beskriver de antaganden som används för att representera beteende, testa modellernas känslighet för olika beteendeantaganden och erbjuda mer information om hur användare använder modeller för att fatta beslut. | REF undersökte vidare betydelsen av mänskliga beteendeaspekter vid tillämpning av operativ forskning inom hälso- och sjukvården på organisationsnivå genom att granska 130 relaterade dokument. | 70,236,101 | A review of implementation of behavioural aspects in the application of OR in healthcare | {'venue': None, 'journal': 'Journal of the Operational Research Society', 'mag_field_of_study': ['Computer Science']} | 4,645 |
Abstract-This paper introducerar SymPLFIED, ett ramverk på programnivå som möjliggör specifikation av godtyckliga feldetektorer och verifiering av deras effektivitet mot maskinvarufel. SymPLFIED räknar upp alla övergående maskinvarufel i register, minne och beräkning (uttryckt symboliskt som värdefel) som potentiellt undgår upptäckt och orsakar programfel. Ramverket använder symbolisk körning för att abstraktera tillståndet av felaktiga värden i programmet och modellkontroll för att på ett heltäckande sätt hitta alla fel som undgår upptäckt. Vi demonstrerar användningen av SymPLFIED på en brett utplacerad flygplan kollision undvikande ansökan, tcas. Våra resultat visar att SymPLFIED ramverket kan användas för att avslöja svåra att upptäcka katastrofala fall orsakade av övergående fel i program som kanske inte exponeras genom slumpmässig felinjektionsbaserad validering. Dessutom hjälper de fel som avslöjas av ramverket oss att formulera en uppsättning feldetektorer för ansökan för att undvika det katastrofala fallet och andra felaktiga utfall. | EMPLFIED-systemet REF är ett anmärkningsvärt undantag från metoden med slumpmässig felinjektion. | 61,952,519 | SymPLFIED: Symbolic Program-Level Fault Injection and Error Detection Framework | {'venue': 'IEEE Transactions on Computers', 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']} | 4,646 |
Abstract Context-medvetna system förvärvar och utnyttjar information om användarkontext för att skräddarsy tjänster till en viss användare, plats, tid och/eller händelse. Därför gör de det möjligt för tjänsteleverantörer att anpassa sina tjänster till de faktiska användarbehoven genom att erbjuda personliga tjänster beroende på det aktuella användarsammanhanget. Tjänsteleverantörer är vanligtvis intresserade av att profilera användare både för att öka kundnöjdheten och för att bredda uppsättningen av erbjudna tjänster. Nya och effektiva tekniker behövs för att skräddarsy utbudet av tjänster till användaren (eller användarkategorin) och till den situation som denne befinner sig i. I detta dokument presenteras ramen för CAS-Mine för att effektivt upptäcka relevanta relationer mellan användarkontextdata och tjänster som för närvarande efterfrågas för både användar- och tjänsteprofilering. CAS-Mine extraherar effektivt allmänna föreningsregler, som ger en hög grad av abstraktion av både användarvanor och serviceegenskaper beroende på sammanhanget. En lat (analyserad) taxonomiutvärdering som utförs på olika attribut (t.ex. en geografisk hierarki för rumsliga koordinater, en klassificering av tillhandahållna tjänster) driver regel generaliseringsprocessen. Utdragna regler klassificeras i grupper efter deras semantiska betydelse och rangordnas med hjälp av kvalitetsindex, vilket gör det möjligt för en domänexpert att fokusera på de mest relevanta mönstren. Experiment utförda på tre sammanhangsmedvetna datauppsättningar, som erhållits genom loggning av användarförfrågningar och kontextinformation för tre verkliga tillämpningar, visar effektiviteten och effektiviteten i CAS-Mine-ramen vid gruvdrift av olika värdefulla typer av korrelationer mellan användarvanor, kontextinformation och tillhandahållna tjänster. | CAS-Mine är ett ramverk som presenteras av Baralis et al. Ref, som fokuserar på att upptäcka relevanta relationer mellan användarkontextdata och åberopade tjänster. | 6,897,968 | CAS-Mine: providing personalized services in context-aware applications by means of generalized rules | {'venue': 'Knowledge and Information Systems', 'journal': 'Knowledge and Information Systems', 'mag_field_of_study': ['Computer Science']} | 4,647 |
Abstract-Motivated by an application in renale exchange, vi studerar följande frågetecken problem: vi ges uppsättningen av hörn av en icke-bipartite graf G. Den uppsättning kanter i denna graf är inte kända i förväg. Vi kan fråga ett par hörn för att avgöra om de är intilliggande. Om den frågade kanten finns, är vi fast beslutna att matcha de två endpoints. Vårt mål är att maximera storleken på matchningen. Denna begränsning i mängden information som är tillgänglig för algoritmen tvingar oss att genomföra myopiska, giriga algoritmer. En enkel deterministisk girig algoritm uppnår en faktor 1/2 som är tight för deterministiska algoritmer. En viktig öppen fråga i denna riktning är att ge en randomiserad girig algoritm som har en betydligt bättre approximationsfaktor. Denna fråga ställdes för nästan 20 år sedan av Dyer och Frieze [9] där de visade att en naturlig randomiserad strategi att plocka kanter jämnt på måfå inte hjälper och har en approximationsfaktor på 1/2 + o(1). De lämnade det som en öppen fråga att utforma en bättre randomiserad girig algoritm. I det efterföljande arbetet gav Aronson, Dyer, Frieze och Suen [2] en annan randomiserad girig algoritm och visade att den uppnår en faktor 0,5 + där är 0,0000025. I detta papper föreslår och analyserar vi en ny randomiserad girig algoritm för att hitta en stor matchning i en allmän graf och använda den för att lösa frågan begå problem som nämns ovan. Vi visar att vår algoritm uppnår en faktor på minst 0,56, en betydande förbättring över 0,50000025. Vi visar också att ingen randomiserad algoritm kan ha en approximationsfaktor bättre än 0,7916 för frågan begå problem. För en annan stor och intressant klass av randomiserade algoritmer som vi kallar vertex-iterativa algoritmer, visar vi att ingen vertexiterativ algoritm kan ha en approximationsfaktor bättre än 0,75. | Goel och Tripathi REF visade ett hårdhetsresultat på 0,7916 för alla algoritmer och 0,75 för adaptiva vertex-iterativa algoritmer. | 12,341,149 | Matching with Our Eyes Closed | {'venue': '2012 IEEE 53rd Annual Symposium on Foundations of Computer Science', 'journal': '2012 IEEE 53rd Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,648 |
Ett antal nya verk har föreslagit uppmärksamhetsmodeller för visuellt frågesvar (VQA) som genererar rumsliga kartor som belyser bildregioner som är relevanta för att besvara frågan. I detta dokument hävdar vi att det förutom att modellera "där man kan titta" eller visuell uppmärksamhet är lika viktigt att modellera "vilka ord man ska lyssna på" eller ifrågasätta uppmärksamheten. Vi presenterar en ny co-attention modell för VQA som tillsammans resonerar om bild och ifrågasätter uppmärksamhet. Dessutom, vår modell skäl till frågan (och därmed bilden via co-attention mekanism) på ett hierarkiskt sätt via en ny 1-dimensionell konvolution neurala nätverk (CNN) modell. Vår slutliga modell överträffar alla rapporterade metoder och förbättrar den senaste tekniken på VQA-datauppsättningen från 60,4 % till 62,1 %, och från 61,6 % till 65,4 % på COCO-QA-datauppsättningen 1. 1 Källkoden kan laddas ner från https://github.com/jiasenlu/HieCoAttenVQA | Baserat på detta, Lu et al. I REF föreslogs vidare en medbestämmandemodell för VQA som tillsammans resonerar om språk och bild. | 868,693 | Hierarchical Question-Image Co-Attention for Visual Question Answering | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,649 |
Vi föreslår ett fullt fungerande identitetsbaserat krypteringssystem (IBE). Systemet har valt chiffertext säkerhet i slumpmässiga oraklet modell antar en variant av beräknings DiffieHellman problem. Vårt system är baserat på tvålinjära kartor mellan grupper. Den Weil parning på elliptiska kurvor är ett exempel på en sådan karta. Vi ger exakta definitioner för säkra identitetsbaserade krypteringssystem och ger flera tillämpningar för sådana system. | Dan Boneh och Matthew Franklin REF föreslår ett fullt fungerande identitetsbaserat krypteringssystem (IBE) som bygger på tvåradiga kartor mellan grupper. | 734,165 | Identity-based encryption from the Weil pairing | {'venue': 'SIAM J. of Computing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,650 |
Framtida trådlösa applikationer kommer att dra nytta av snabbt utplaceringsbara, självkonjigerande multihopa ad hoc-nätverk. På grund av dificulten av att få IEEE 802.11 feedback om länkanslutning i verkliga nätverk, många multihop ad hoc-nätverk använder hej meddelanden för att avgöra lokal anslutning. I detta dokument används ett genomförande av protokollet Ad hoc On-demand Distance Vector (AODV) för att undersöka effektiviteten hos hej-meddelanden för övervakning av länkstatus. I denna studie är det fastställt att många faktorer påverkar nyttan av hej meddelanden, inklusive tillåtet hej meddelande förlust inställningar, diskrepans mellan data och hej meddelande storlek och 802.11b pakethantering. I detta dokument undersöks dessa faktorer och experimentellt utvärderas en mängd olika metoder för att förbättra riktigheten av hej-meddelanden som en indikator på lokal konnektivitet. | I REF föreslog Chakeres m.fl. att man skulle utnyttja fördelarna med adhoc-protokollet om efterfrågerouting och undersöka effektiviteten hos HELLO-meddelanden för övervakning av nodanslutningen. | 6,752,510 | The utility of hello messages for determining link connectivity | {'venue': 'The 5th International Symposium on Wireless Personal Multimedia Communications', 'journal': 'The 5th International Symposium on Wireless Personal Multimedia Communications', 'mag_field_of_study': ['Computer Science']} | 4,651 |
Under det senaste halvåret har konvolutionella neurala nätverk (CNN) segrat över semantisk segmentering, vilket är en central uppgift för olika framväxande industriella tillämpningar såsom autonom körning och medicinsk avbildning. Men att utbilda CNN kräver en enorm mängd data, vilket är svårt att samla in och mödosamt att kommentera. De senaste framstegen inom datorgrafik gör det möjligt att utbilda CNN-modeller på fotorealistiska syntetiska data med datorgenererade kommentarer. Trots detta minskar domänobalansen mellan de verkliga bilderna och de syntetiska uppgifterna avsevärt modellernas prestanda. Därför föreslår vi en läroplansbaserad inlärningsmetod för att minimera domänklyftan i semantisk segmentering. Den läroplansdomänanpassning löser enkla uppgifter först för att dra några nödvändiga egenskaper om måldomänen; i synnerhet, den första uppgiften är att lära sig globala etikettdistributioner över bilder och lokala distributioner över landmärke superpixlar. Dessa är lätta att uppskatta eftersom bilder av stadstrafik scener har starka idiosynkrasier (t.ex. storlek och rumsliga förhållanden byggnader, gator, bilar, etc.). Vi tränar sedan segmenteringsnätet på ett sådant sätt att nätverksprognoserna i måldomänen följer de infererade egenskaperna. I experiment överträffar vår metod betydligt baslinjerna och det enda kända tillvägagångssättet till samma problem. | Zhang m.fl. I REF föreslogs en metod för anpassning av läroplansdomäner för semantisk segmentering. | 11,824,004 | Curriculum Domain Adaptation for Semantic Segmentation of Urban Scenes | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 4,652 |
Syntetisk biologi, ett tvärvetenskapligt fält, växer snabbt. Att förbättra förståelsen av biologiska system genom att härma och producera bioortogonala system med nya funktioner är två kompletterande aktiviteter inom detta område. En webbserver kallad FMM (från Metabolite till Metabolite) utvecklades för detta ändamål. FMM kan rekonstruera metaboliska vägar bildar en metabolit till en annan metabolit bland olika arter, baserat främst på Kyoto Encyclopedia of Genes and Genomes (KEGG) databas och andra integrerade biologiska databaser. Ny presentation för anslutning av olika KEGG-kartor ges nyligen. Både lokala och globala grafiska vyer av metabola banor är utformade. FMM har många tillämpningar inom Synthetic Biology och Metabolic Engineering. Till exempel är återuppbyggnaden av metabola vägar för att producera värdefulla metaboliter eller sekundära metaboliter i bakterier eller jäst en lovande strategi för läkemedelsproduktion. FMM ger ett mycket effektivt sätt att belysa de gener från vilka arter bör klonas till dessa mikroorganismer baserat på FMM-vägkomparativ analys. Följaktligen är FMM ett effektivt verktyg för tillämpningar inom syntetisk biologi för att producera både läkemedel och biobränslen. Denna nya och innovativa resurs finns nu fritt tillgänglig på http://FMM.mbc.nctu.edu.tw/. | Från Metabolite till Metabolite (FMM; REF ) är ett verktyg för att förutsäga vägar baserade på KEGG. | 3,000,497 | FMM: a web server for metabolic pathway reconstruction and comparative analysis | {'venue': 'Nucleic Acids Research', 'journal': 'Nucleic Acids Research', 'mag_field_of_study': ['Biology', 'Computer Science', 'Medicine']} | 4,653 |
Vi studerade valbeteendet hos 2 apor i en diskret rättegångsuppgift med förstärkningar liknande de Herrnstein (1961) som användes när han beskrev den matchande lagen. I varje session upplevde aporna block av diskreta försök med olika relativa förstärkningsfrekvenser eller magnituder med osignerade övergångar mellan blocken. Steady-state data efter justering till varje övergång var väl karakteriserade av den generaliserade matchande lagen; respons ratios undermatchade förstärkare frekvensförhållanden men matchade förstärkar magnitud ratios. Vi modellerade respons-by response beteende med linjära modeller som använde tidigare förstärkare samt tidigare val för att förutsäga apornas val på varje försök. Vi fann att på senare tid fick förstärkningar mer starkt påverkade valbeteendet. Kanske överraskande upptäckte vi också att apornas handlingar påverkades av mönstret av deras egna tidigare val. Det var nödvändigt att införliva både tidigare förstärkare och tidigare val för att exakt fånga steady-state beteende samt fluktuationer under block övergångar och respons-by-respons mönster beteende. Våra resultat tyder på att enkla förstärkande inlärningsmodeller måste redogöra för effekterna av tidigare val för att korrekt karakterisera beteende i denna uppgift, och att modeller med dessa egenskaper ger ett konceptuellt verktyg för att studera hur både tidigare förstärkare och tidigare val integreras av de neurala system som genererar beteende. | Lau och Glimcher REF har funnit att tidigare val, förutom tidigare förstärkningar, måste beaktas för att förutsäga försök-för-rättegång beteende rhesus apor engagerade i ett val uppgift som resulterar i matchande beteende. | 7,120,657 | DYNAMIC RESPONSE-BY-RESPONSE MODELS OF MATCHING BEHAVIOR IN RHESUS MONKEYS | {'venue': 'Journal of the experimental analysis of behavior', 'journal': 'Journal of the experimental analysis of behavior', 'mag_field_of_study': ['Psychology', 'Medicine']} | 4,654 |
Abstract-Image-baserad lokalisering, eller kamera omlokalisering, är ett grundläggande problem i datorseende och robotik, och det avser att uppskatta kameran pose från en bild. Nya state-of-art metoder använder inlärningsbaserade metoder, såsom Random Forests (RF) och Convolutional Neural Networks (CNNs), att regressera för varje pixel i bilden dess motsvarande position i scenens koordinatram världen, och lösa den slutliga posen via en RANSAC-baserade optimeringsschema med hjälp av de förutsagda korrespondenser. I detta dokument, i stället för på ett lappbaserat sätt, föreslår vi att man utför scenens koordinatregression på ett fullskaligt sätt för att göra beräkningen effektiv vid testtidpunkten och, vilket är ännu viktigare, att lägga till mer globala sammanhang till regressionsprocessen för att förbättra robustheten. För att göra det antar vi en helt konvolutionell encoder-dekoder neurala nätverk arkitektur som accepterar en hel bild som ingång och producerar scenkoordinat förutsägelser för alla pixlar i bilden. Att använda mer globala sammanhang är dock benägna att överanstränga sig. För att lindra denna fråga, föreslår vi att använda dataökning för att generera mer data för utbildning. Förutom dataförstärkningen i 2D-bildrymden, förstärker vi även data i 3D-rymden. Vi utvärderar vår strategi på den allmänt tillgängliga 7-Scenes dataset, och experiment visar att det har bättre scen samordna förutsägelser och uppnå state-of-the-art resultat i lokalisering med förbättrad robusthet på de svåraste ramar (t.ex. ramar med upprepade strukturer). | I motsats till DSAC, som antar ett patch-baserat nätverk för scensamordning regression, presenteras ett full-frame-nätverk med tanke på det globala bildutseendet i REF och en strategi för dataförstärkning föreslås för att säkerställa noggrannheten. | 3,643,315 | Full-Frame Scene Coordinate Regression for Image-Based Localization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,655 |
Abstract-This paper tar upp arbetsbörda allokering tekniker för två typer av sekventiella jobb som kan hittas i multikluster system, nämligen icke-realtidsjobb och mjuka realtidsjobb. Två strategier för fördelning av arbetsbelastning, den optimerade genomsnittliga svarstiden (ORT) och den optimerade genomsnittliga Miss Rate (OMR), utvecklas genom att etablera och numeriskt lösa två optimeringsekvationsuppsättningar. ORT-strategin uppnår en optimerad genomsnittlig svarstid för icke-realtidsjobb, medan OMR-strategin får en optimerad genomsnittlig felfrekvens för mjuka realtidsjobb över flera kluster. Båda strategierna tar hänsyn till genomsnittliga systembeteenden (såsom den genomsnittliga ankomsthastigheten för arbetstillfällen) vid beräkningen av arbetsbördan proportioner för enskilda kluster och arbetsbördan allokering uppdateras dynamiskt när förändringen i den genomsnittliga ankomsthastigheten når en viss tröskel. Båda strategiernas effektivitet visas genom teoretisk analys. Dessa strategier utvärderas också genom omfattande experimentella studier och resultaten visar att jämfört med traditionella strategier, förbättrar de föreslagna systemen för fördelning av arbetsbörda avsevärt arbetets schemaläggning i multikluster, både vad gäller den genomsnittliga svarstiden (för icke-realtidsjobb) och den genomsnittliga felfrekvensen (för mjuka realtidsjobb). | I REF, He-Liang et al. adressera samtilldelning för icke-realtids- och mjuka realtidsuppgifter i multiklusternät. | 8,654,100 | Allocating non-real-time and soft real-time jobs in multiclusters | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 4,656 |
Den vinkelsynkronisering problem är att få en exakt uppskattning (upp till en konstant additiv fas) för en uppsättning av okända vinklar på 1,. .., på n från m bullriga mätningar av deras offset i − j mod 2π. Av särskilt intresse är vinkelåterhämtning i närvaro av många avvikande mätningar som är jämnt fördelade i [0, 2π ) och inte har någon information om de verkliga förskjutningar. Vi introducerar en effektiv återställningsalgoritm för de okända vinklarna från toppen eigenvector av en speciellt utformad hermitisk matris. Eigenvektorns metod är extremt stabil och lyckas även när antalet avvikelser är extremt stort. Till exempel, vi framgångsrikt uppskatta n = 400 vinklar från en fullständig uppsättning av m = 400 2 offset mätningar av vilka 90% är avvikelser i mindre än en sekund på en kommersiell laptop. Metodens prestanda analyseras med hjälp av slumpmässig matristeori och informationsteori. Vi diskuterar sambandet mellan synkroniseringsproblemet och det kombinatoriska optimeringsproblemet Max-2-Lin mod L och presenterar en semidefinit avkoppling för vinkelåterhämtning, rita likheter med Goemans-Williamson algoritm för att hitta den maximala snitt i en viktad graf. Vi presenterar utvidgningar av eigenvektorns metod till andra synkroniseringsproblem som involverar olika gruppstrukturer och deras tillämpningar, såsom tidssynkroniseringsproblem i distribuerade nätverk och ytrekonstruktionsproblem i datorseende och optik. | Eigenvektorn metod (avsnitt 2) och semidefinit avslappning metod för synkronisering redan visas i en studie av Singer REF. | 12,654,525 | Angular synchronization by eigenvectors and semidefinite programming | {'venue': 'Applied and computational harmonic analysis', 'journal': 'Applied and computational harmonic analysis', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 4,657 |
Abstract-Automated nuclear detection är ett kritiskt steg för ett antal datorstödda patologi relaterade bildanalys algoritmer såsom för automatisk klassificering av bröstcancer vävnadsprover. Nottingham Histologic Score systemet är i hög grad korrelerad med formen och utseendet av bröstcancer nuklei i histopatologiska bilder. Automatiserad nuclear detektion kompliceras dock av 1) det stora antalet nuclei och storleken av hög upplösning digitaliserade patologiska bilder, och 2) variabiliteten i storlek, form, utseende, och textur av den individuella nuclei. Nyligen har det funnits intresse för tillämpningen av "Deep Learning" strategier för klassificering och analys av big image data. Histopatologi, med tanke på dess storlek och komplexitet, utgör ett utmärkt användningsområde för tillämpning av strategier för djupinlärning. I detta dokument presenteras en Stacked Sparse Autoencoder (SSAE), ett exempel på en djupinlärningsstrategi, för effektiv nukleidetektering på högupplösta histopatologiska bilder av bröstcancer. SSAE lär sig hög nivå funktioner från bara pixel intensiteter ensam för att identifiera särskiljande egenskaper hos nuklei. En skjutfönster åtgärd tillämpas på varje bild för att representera bild fläckar via hög nivå funktioner som erhålls via auto-encoder, som sedan matas till en klassificering som kategoriserar varje bild patch som nukleär eller icke-nukleär. | På samma sätt, i REF, en staplad autoencoder är förträngd på bild patchar och resultaten av dess slutliga skikt matas till en övervakad klassificerare för nuclear detektion. | 2,612,052 | Stacked Sparse Autoencoder (SSAE) for Nuclei Detection on Breast Cancer Histopathology Images | {'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,658 |
Vi studerar låg-förvrängning inbäddning av metriska utrymmen in i linjen, och mer allmänt, in i den kortaste vägen metrisk av träd, från parameteriserade komplexitet perspektiv. Låt M = M (G) vara den kortaste vägen metrisk för en kant viktad graf G, med vertex set V (G) och kanten set E(G), på n hörn. Vi ger den första fasta parametern dragbar algoritm som för en oviktad graf metrisk M och heltal d antingen konstruerar en inbäddning av M i raden med distorsion som mest d, eller drar slutsatsen att ingen sådan inbäddning finns. Vår algoritm kräver O(nd 4 (2d + 1) 2d ) tid som är en betydande förbättring jämfört med den bästa tidigare algoritm som körs i tid O(n 4d+2 d O(1) ). På grund av sin uppenbara likhet med den notoriskt hårda Bandbredd Minimering problem, finner vi det förvånande att detta problem visar sig vara fast parameter kantbar. Vi utökar våra resultat på att inbädda oviktad graf i linjen på två sätt. Först ger vi en algoritm för att konstruera små distorsion inbäddningar av viktade grafmått. Löptiden för vår algoritm är O(n(dW ) 4 (2d + 1) 2dW ), där W är den största kantvikten för indatagrafen. För att komplettera detta resultat visar vi att det exponentiella beroendet av maximal kantvikt är oundvikligt. I synnerhet visar vi att avgöra om en viktad graf metriska M (G) med maximal vikt W < och V (G) kan inbäddas i linjen med distorsion som mest d är NP-komplett för varje fast rationell d ≥ 2. Detta utesluter alla möjligheter till en algoritm med körtid O(nW ) h(d) ) där h är en funktion av d ensam. För det andra anser vi att det finns mer allmänna värdvärden för motsvarande resultat. I synnerhet, Vi bevisar att för alla träd T med maximal grad, inbädda M i en kortaste väg metriska av T är fast parameter dragbar, Parameterized av ( ska, d). | Parameteriserad komplexitet av låg-snedvridning inbäddningar övervägdes av Fellows et al. REF, som gav en fast parameter dragbar (FPT) algoritm för att hitta en inbäddning av en oviktad graf metriska i raden med distorsion som mest c, eller drar slutsatsen att ingen sådan inbäddning finns, som fungerar i tiden O (nc 4 (2c + 1) 2c ). | 14,341,806 | Distortion Is Fixed Parameter Tractable | {'venue': 'ICALP', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,659 |
Generativa kontradiktoriska nätverk (Gans) kan tolkas som ett kontradiktoriskt spel mellan två spelare, en discriminator D och en generator G, där D lär sig att klassificera verkliga från falska data och G lär sig att generera realistiska data genom att "spola" D till att tänka att falska data är faktiskt verkliga data. För närvarande är en dominerande åsikt att G faktiskt lär sig genom att minimera en divergens med tanke på att den allmänna objektiva funktionen är en divergens när D är optimal. Denna uppfattning har dock ifrågasatts på grund av inkonsekvenser mellan teori och praktik. I denna uppsats diskuterar vi de egenskaper som är förknippade med de flesta förlustfunktioner för G (t.ex. mättnad/omättande f-GAN, LSGAN, WGAN, etc.). Vi visar att dessa förlustfunktioner inte är skillnader och inte har samma jämvikt som förväntat av skillnader. Detta tyder på att G inte behöver minimera samma objektiva funktion som D maximera, eller maximera målet med D efter byte av verkliga data med falska data (icke-mättande GAN) men kan istället använda ett brett utbud av möjliga förlustfunktioner för att lära sig att generera realistiska data. Vi definierar GAN genom två separata och oberoende D maximisering och G minimisering steg. Vi generaliserar generatorn steg till fyra nya klasser av förlustfunktioner, varav de flesta är faktiska avvikelser (även om traditionella G förlust funktioner inte är). Vi testar ett brett utbud av förlustfunktioner från dessa fyra klasser på ett syntetiskt dataset och på CIFAR-10. Vi observerar att de flesta förlustfunktioner konvergerar väl och ger jämförbar datagenerering kvalitet till icke-mättande GAN, LSGAN, och WGAN-GP generator förlustfunktioner, oavsett om vi använder avvikelser eller icke-divergenser. Dessa resultat tyder på att GAN inte överensstämmer väl med divergensminimeringsteorin och bildar ett mycket bredare utbud av modeller än vad som tidigare antagits. | En teori för instabiliteten är att generatorn faktiskt inte kan minimera Jenson-Shannon divergensen mellan den genererade datadistributionen och den ursprungliga datadistributionen REF. | 52,176,819 | GANs beyond divergence minimization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,660 |
En rimlig representation av relationsinformationen mellan enheter i dynamiska system som en levande cell eller en social gemenskap är ett stokastiskt nätverk som topologiskt omkopplar och semantiskt utvecklas över tiden. Även om det finns en rik litteratur i att modellera statiska eller temporalt invarianta nätverk, har föga gjorts för att återställa nätverksstrukturen när nätverken inte är observerbara i ett dynamiskt sammanhang. I denna uppsats presenterar vi en ny maskininlärningsmetod som kallas TESLA, som bygger på en temporalt utjämnad l 1 -regulariserad logistisk regressionsformalism som kan gjutas som ett standard konvex-optimeringsproblem och lösas effektivt med hjälp av generiska lösare skalbara till stora nätverk. Vi rapporterar lovande resultat på återhämtning simulerade tidsvarierande nätverk, och på omvänd konstruktion den latenta sekvensen av temporalt omkoppling politiska och akademiska sociala nätverk från longitudinella data, och de evolverande gennätverk över mer än 4000 gener under livscykeln av Drosophila melanogaster från en microarray tid kurs vid en upplösning begränsad endast av provfrekvens. Tidsvarierande nätverk på sociala nätverk på gennätverk med logistisk regression på Lasso på regularization med optimering av Markov slumpmässiga fält I n många problem som uppstår inom sociala, biologiska och andra områden, är det ofta nödvändigt att analysera populationer av enheter (t.ex. individer, gener) sammankopplade med en uppsättning relationer (t.ex. vänskap, kommunikation, påverkan) representeras som ett nätverk. Realtidsanalyser av nätverksdata är viktiga för att upptäcka anomalier, förutsäga sårbarhet och bedöma de potentiella effekterna av insatser i olika sociala, biologiska eller tekniska system. Det är inte ovanligt att nätverksdata är stora, dynamiska, heterogena, bullriga och ofullständiga. Var och en av dessa egenskaper ger en viss komplexitet åt tolkningen och analysen av nätverken. Klassiska nätverksanalyser utgår oftast från att nätverken i fråga är fullt observerbara, statiska och isotropa. Med tanke på nätdatas heterogenitet och komplexitet på många områden är dessa antaganden begränsade. Till exempel, en majoritet av aktuella undersökningar av biologiska regulatoriska kretsar fokuserar på nätverk med invariant topologi över en given uppsättning molekyler, såsom ett proteinprotein interaktion nätverk över alla proteiner i en organism oavsett under vilka förhållanden enskilda interaktioner kan äga rum, eller ett statiskt gennätverk som härleds från microarray data även om proverna kan samlas in under en tidsperiod eller flera förhållanden. I verkligheten, under loppet av en cellprocess, såsom en cellcykel eller ett immunsvar, kan det finnas flera underliggande "tema" som bestämmer funktionerna i varje molekyl och deras relationer till varandra, och sådana teman är dynamiska och stokastiska. Som ett resultat, molekylära nätverk vid varje tidpunkt är kontextberoende och kan genomgå systematisk omkoppling, snarare än att vara invariant över tid. Ja, i en seminal studie av Luscombe et al. (1) Det visades att "aktiva reglerande vägar" i ett genuttrycks korrelationsnätverk av Saccharomyces cerevisiae uppvisar dramatiska topologiska förändringar och navtransience under en tidscellulär process och som svar på olika stimuli. Liknande fenomen är inte ovanliga på många andra områden, såsom utvecklingen av citeringsnätverk i vetenskapliga samhällen, och uppkomsten/destineringen av kryptiska samband och samhällen i samhället. Ett viktigt tekniskt hinder som hindrar oss från en djupgående undersökning av de mekanismer som ligger till grund för detta fenomen är bristen på seriella ögonblicksbilder av omkopplingsnätet under utvecklingen och utvecklingen av processen i fråga. Till exempel, under ett dynamiskt biologiskt system, är det vanligtvis tekniskt omöjligt att experimentellt bestämma tidsspecifika nätverkstopologier för en serie av tidspunkter baserade på tekniker som t.ex. tvåhybrid eller ChIP-chip experiment. Även om det finns en rik (och växande) litteratur om modellering av observerade nätverksdata i antingen statiska (2) eller dynamiska scenarier (3, 4, 5), med några få undantag (6, 7), har mycket mindre gjorts för att utveckla effektiva inferenstekniker för att återställa oobserverade nätverk topologier från nodal (dvs entity-wise) observationer i ett dynamiskt sammanhang. Befintliga metoder ignorerar vanligtvis potentiella nätverk som omkopplas under olika förhållanden, och leder till ett invariantt nätverk (8, 9, 10). Nyligen har en ny klass av modeller som kallas temporalt Exponentially Random Graph Model (tERGM) föreslagits för modellering nätverk som utvecklas över diskreta tidssteg (5). Den är baserad på en log-lineär graf övergångsmodell P (G t och G t1 ) som definieras på en uppsättning tidsmässiga potentialer som fångar vissa egenskaper hos grafen som omkopplar dynamiken, såsom "gedge-stability", "reciprocity" och "transitivitet" statistik över tidsnära grafer. Baserat på tERGM utvecklades därefter en dold TERGM-modell (htERGM) för att införa stokastiska begränsningar på latenta rewiring-grafer så att man med tanke på en tidsserie av nodala attribut kan sluta sig till tidsspecifik nätverkstopologi baserad på den bakre fördelningen av G t av varje tidspunkt (7). Emellertid är den MCMC-baserade algoritmen i (7) för bakre inferens under htERGM mycket ineffektiv, och fram till nu, ger en effektiv inference algoritmer för denna modell förblir ett öppet problem. Vi föreslår TESLA, en ny maskininlärningsalgoritm för att återställa strukturen av tidsvarierande nätverk över en fast uppsättning noder från tidsserier av nodala attribut. I dessa nätverk innebär en kant mellan två noder ett beroende mellan deras nodaltillstånd, såsom co-aktivering i ett genregelverk. TESLA härstammar från akronymen TESLLOR, som står för TEMporally Smoothed l1-regularized LOgistic regression. Det representerar en ny utvidgning av den välkända lasso-stil sparsam struktur återvinning teknik, och bygger på ett viktigt antagande att tidsnära angränsande nätverk sannolikt inte kommer att vara dramatiskt skiljer sig från varandra i topologi, och därför är mer benägna att dela gemensamma kanter än temporalt distal nätverk. som bygger på den mycket skalbara iterative l1-regulariserade logistiska regressionsalgoritmen för uppskattning av enskilda glesa nät (11), | Mer nyligen, för att göra statistiska slutsatser för olika nätverk som sträcker sig från biologi till samhällsvetenskap, REF presenterade en maskininlärningsmetod byggd på en temporalt utjämnad l 1 -regulariserad logistisk regression formalism som ett konvexoptimeringsproblem som kan sovled effektivt och är skalbar till stora nätverk. | 5,938,234 | Recovering time-varying networks of dependencies in social and biological studies | {'venue': 'Proc. Nat. Acad. Sci', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,661 |
Vi presenterar en konceptuellt enkel, flexibel och allmän ram för få shot-inlärning, där en klassificerare måste lära sig att känna igen nya klasser som ges bara några få exempel från varje. Vår metod, som kallas Relation Network (RN), är tränad från början till slut. Under meta-learning lär den sig att lära sig ett långt avståndsmått för att jämföra ett litet antal bilder inom avsnitt, som var och en är utformad för att simulera den få-shot-inställningen. En gång tränad, en RN kan klassificera bilder av nya klasser genom att beräkna relation poäng mellan frågebilder och några exempel på varje ny klass utan att ytterligare uppdatera nätverket. Förutom att ge bättre resultat på få shot-inlärning är vårt ramverk enkelt att utöka till noll shot-inlärning. Omfattande experiment på fem riktmärken visar att vårt enkla tillvägagångssätt ger en enhetlig och effektiv strategi för båda dessa två uppgifter. | Relation nätverk REF lär sig ett avstånd metrisk för att konstruera relationen av prover inom en episod. | 4,412,459 | Learning to Compare: Relation Network for Few-Shot Learning | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,662 |
Med den utbredda användningen av e-post, har vi nu tillgång till oöverträffade mängder text som vi själva har skrivit. I denna uppsats visar vi hur känsloanalys kan användas i kombination med effektiva visualiseringar för att kvantifiera och spåra känslor i många typer av post. Vi skapar en stor ord-emotion förening lexikon genom crowdsourcing, och använder den för att jämföra känslor i kärleksbrev, hat post, och självmord anteckningar. Vi visar att det finns tydliga skillnader mellan könen i hur de använder känsloord i e-post på arbetsplatsen. Till exempel, kvinnor använder många ord från joy-sadness axel, medan män föredrar termer från rädsla-trust axel. Slutligen visar vi visualiseringar som kan hjälpa människor att spåra känslor i sina e-postmeddelanden. | REF analyserade könsskillnader i uttryck av känslor i kärleksbrev, hatbrev och självmordsanteckningar, och emotionell ordanvändning över kön i e-post. | 17,646,396 | Tracking Sentiment in Mail: How Genders Differ on Emotional Axes | {'venue': 'Proceedings of the 2nd Workshop on Computational Approaches to Subjectivity and Sentiment Analysis (WASSA 2.011)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,663 |
Public dim noder utöka molntjänster för Internet of Things (IoT) klienter och smarta enheter för att ge ytterligare beräkningsmöjligheter, lagringsutrymme, och minska latens och svarstid. Öppenheten och genomträngligheten hos allmänna dimnoder leder till kravet att använda förtroendemodeller för att säkerställa tillförlitlighet, säkerhet, integritet och uppfylla servicenivåavtalen. Konventionella förtroendemodeller för offentliga dimnoder är centralt konfigurerade, utplacerade och underhålls med tanke på säkerhet, sekretess och SLA-krav. Dessa förtroendemodeller upprätthåller dock en centraliserad styrningspolitik i hela systemet, vilket leder till en enda bristpunkt och en enda kompromiss över IoT-enheters och användares personuppgifter. I detta dokument föreslås en decentraliserad förtroendemodell för att upprätthålla ryktet om allmänt tillgängliga dimnoder. Ryktet upprätthålls med tanke på användarnas åsikter om deras tidigare interaktioner med de offentliga dimnoderna. Den föreslagna förtroendemodellen är utformad med hjälp av offentliga Ethereum blockchain och smart kontraktsteknik för att möjliggöra decentraliserad pålitlig tjänsteförsörjning mellan IoT-enheter och offentliga dimnoder. Det föreslagna tillvägagångssättet testas och utvärderas i fråga om säkerhet, prestanda och kostnader. Resultaten visar att med hjälp av blockchain för decentraliserad rykteshantering kan bli mer fördelaktigt jämfört med de befintliga centraliserade förtroendemodeller. Blockchain, dimma dator, IoT, rykte, förtroende. MAZIN DEBE är för närvarande en utexaminerad student i datavetenskap med Khalifa University of Science and Technology, Abu Dhabi, UAE. Hans forskningsintressen är bl.a. blockchain-teknik, sakernas internet (IoT) och dimdata. KHALED SALAH fick B.August 2010, där han undervisar i forskarutbildning och grundutbildning inom områdena molntjänster, dator- och nätverkssäkerhet, datornätverk, operativsystem samt prestandamodellering och analys. Innan han började vid universitetet i Khalifa arbetade han vid institutionen för informations- och datavetenskap, King Fahd University of Petroleum and Minerals (KFUPM), Saudiarabien, i tio år. Han har över 190 publikationer och innehar tre patent, har hållit ett antal internationella keynote tal, inbjudna föredrag, handledningar och forskningsseminarier om ämnen som blockchain, IoT, dimma och cloud computing, och cybersäkerhet. Han är medlem i IEEE Blockchain Education Committee. | Den föreslagna rykteslösningen i REF var decentraliserad och genomfördes på Ethereum blockchain med hjälp av smarta kontrakt. | 209,458,807 | IoT Public Fog Nodes Reputation System: A Decentralized Solution Using Ethereum Blockchain | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,664 |
Abstruct-Vi anser att ett trådlöst sensornätverk gjort av sensornoder som kan avkänna och kommunikation, relänoder som kan kommunicera, och basstationer som ansvarar för insamling av data som genereras av sensornoder, ska användas i sensorfältet, Vi tar itu med problemet med att placera sensorn noder, relän och basstationer i sensorfältet så att (i) varje punkt av intresse i sensorfältet täcks av en del av sensorer av önskad kardinalitet (ii) det resulterande sensornätverket är ansluten och (iii) sensornätverket har tillräcklig bandbredd. Vi föreslår flera installationsstrategier för att fastställa optimala placeringar av sensornoder, relänoder och basstationer för garanterad täckning, anslutning, bandbredd och robusthet. Vi studerar flera olika mål såsom att minimera antalet utplacerade sensornoder, minimera den totala kostnaden, minimera energiförbrukningen, maximera nätverkets livslängd och maximera nätverksutnyttjandet. Placeringsproblemen för såväl tillförlitliga som otillförlitliga/probabilistiska detektionsmodeis är formulerade som Integer Linear Programs (ILPs). De föreslagna strategiernas praktiskhet, effektivitet och prestanda illustreras genom simuleringar. Distribuerade sensornätverk, utformade för att övervaka och kontrollera omgivande miljöfenomen, har potential att revolutionera många tillämpningar. Ett sensornätverk består av sensornoder och en eller flera basstationer. Sensornoder genererar, bearbetar och vidarebefordrar data (via mellanliggande sensornoder) till basstationer. Bland de stora designutmaningarna i designen av sensornätverk är ett effektivt utnyttjande av resurser tillgängliga för sensornoder såsom knapp bandbredd och begränsad energiförsörjning. I tillämpningar som övervakning, målspårning och intrångsdetektering kan den strategiska placeringen av sensornoder i sensorfältet avsevärt förbättra avkänningskvaliteten, minska kostnaden och minimera energiförbrukningen, vilket ökar livslängden för sensornoder. Beroende på egenskaperna hos avkännings-, terräng- och tillämpningsscenarier kan sensornoders avkänningsförmåga modelleras som tillförlitlig (precis) eller otillförlitlig (otillförlitlig). I den otillförlitliga avkänningsmodellen tilldelas en avkännings-/detektionssannolikhet för varje avläsning som kännetecknar graden av förtroende för avläsningen. I de tillförlitliga avläsningsmodellerna inom avkänningsområdet antas avläsningarna vara exakta. Det område där en sensor kan utföra sina avkännings-, övervaknings-, övervaknings- och detektionsuppgifter med rimlig noggrannhet (dvs. Sensoravläsningarna har minst en tröskelnivå 0-7803-8991-3/05/$20.00 0 2005 IEEE 58 1 av sannolikheten för avkänning/detektion inom det området) är känd som täckningsområdet. Sammanslutningen av täckningsområden för enskilda sensorer är täckningsområdet för ett sensornätverk. Täckningsområden kan vara oregelbundna och kan vara lägesberoende på grund av hinder i terrängen t.ex. sensorer som används för inomhusapplikationer, i urbana och kuperade områden [I 3. Täckningsområdet kan också vara beroende av målet, t.ex. En sensor kan upptäcka mindre mål från korta avstånd och större mål från långa avstånd. Omfattningen av den sensortäckning som krävs beror på applikationen [2]. Att täcka varje plats med flera sensorer kan ge robusthet. Vissa tillämpningar kan kräva förmånstäckning av kritiska platser baserat på risk eller taktisk betydelse [I]. Kraven på täckning kan också ändras med tiden på grund av ändrade miljöförhållanden, t.ex. sikten kan variera på grund av dimma eller rök. En låg grad av täckning kan vara tillräcklig under normala omständigheter, men, när en kritisk händelse avkänns, en hög grad av täckning kan önskas i det området 121. Det är önskvärt att uppnå den grad av täckning och robusthet som krävs med det minsta antalet aktiva sensornoder för att minimera kostnader, störningar och informations redundans [2], [3]. På grund av det begränsade utbudet av trådlös kommunikation och hinder som byggnader, väggar och träd kan det minsta antalet sensornoder som krävs för täckningen dock inte garantera anslutning av det resulterande sensornätet. Vissa tekniker kräver att sändaren och mottagaren är i linje med sikten, t.ex. Infrarött, Ultraljud f41. Därför måste en strategi för placering av sensornoder ta hänsyn till konnektivitet och bandbreddsbegränsning för trådlösa kanaler (flaskhalsar) när man beslutar om var sensornoder ska placeras. Eftersom sensornoder har begränsad energiförsörjning, en sensor nod placering strategi, som minimerar den energi som förbrukas i kommunikation eller maximerar tiden tills den erforderliga graden av täckning upprätthålls, är mycket önskvärt. I detta dokument föreslår vi flera installationsstrategier som avgör optimala placeringar av sensornoder, relänoder och basstationer för garanterad täckning, anslutning, bandbredd och robusthet. Placeringsproblemen för tillförlitliga såväl som probabilistiska detektionsmodeller är formulerade som ILP:er. De föreslagna strategierna jämförs med hjälp av simuleringar. | I REF, Patel et al. tog itu med problemet med placering av sensornoder, relänoder och basstation i sensornätverk och formulerade en lösning för att uppnå minimalt antal sensornoder, minimal total kostnad och energiförbrukning samt maximal energianvändning och livslängd för nätverket. | 11,722,236 | Energy efficient sensor, relay and base station placements for coverage, connectivity and routing | {'venue': 'PCCC 2005. 24th IEEE International Performance, Computing, and Communications Conference, 2005.', 'journal': 'PCCC 2005. 24th IEEE International Performance, Computing, and Communications Conference, 2005.', 'mag_field_of_study': ['Computer Science']} | 4,665 |
Återkommande neurala nätverk (RNN) är kapabla att lära funktioner och långsiktiga beroenden från sekventiella och tidsserie data. RNN:erna har en hög med icke-linjära enheter där minst en förbindelse mellan enheterna bildar en riktad cykel. En välutbildad RNN kan modellera alla dynamiska system; dock är utbildning RNNs mest plågas av problem med att lära sig långsiktiga beroenden. I detta dokument presenterar vi en undersökning om RNN och flera nya framsteg för nykomlingar och yrkesverksamma inom området. Grunderna och de senaste framstegen förklaras och forskningsutmaningarna introduceras. | Nyligen genomförda utvärderingar av återkommande neurala nätverk REF visar den liknande trenden för att lära sig långsiktiga beroenden i sekventiella bilder (video) och tidsseriedata. | 3,531,572 | Recent Advances in Recurrent Neural Networks | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,666 |
Jämfört med tidigare flerstegsramar med hjälp av CNN-funktioner, ökar den senaste tidens djupa strategier för finkornigt erkännande huvudsakligen CNN:s inlärningsförmåga på mellannivå. Tidigare strategier uppnå detta genom att införa ett hjälpnätverk för att ingjuta lokaliseringsinformation i det huvudsakliga klassificeringsnätverket, eller en sofistikerad funktionskodning metod för att fånga högre ordning funktionsstatistik. Vi visar att mid-level representation lärande kan förbättras inom CNN ram, genom att lära sig en bank av konvolutionella filter som fångar klass-specifika discriminativa fläckar utan extra del eller avgränsande box annoteringar. En sådan filterbank är välstrukturerad, korrekt initierad och discriminativt inlärd genom en ny asymmetrisk flerströmsarkitektur med konvolutionell filterövervakning och en icke-slumpmässig lagerinitiering. Experimentella resultat visar att vår strategi uppnår toppmoderna resultat på tre allmänt tillgängliga finkorniga igenkänningsdata (CUB-200-2011, Stanford Cars och FGVC-Aircraft). Ablationsstudier och visualiseringar ges för att förstå vårt tillvägagångssätt. | REF anser att en bank av diskriminativa filter för att korrekt lokalisera de diskriminativa fläckarna. | 52,065,963 | Learning a Discriminative Filter Bank Within a CNN for Fine-Grained Recognition | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,667 |
Abstract-I detta arbete, introducerar vi en strategi för att minimera den totala strömförbrukningen hos en mobil sändare på grund av källa kompression, kanalkodning och överföring som är föremål för en fast end-to-end källa distorsion. Vi illustrerar vårt synsätt både på en abstrakt klass av källor och kanaler och på ett realistiskt H.263 videoöverföringssystem via en trådlös kanal. Prestanda under olika kanalmiljöer och genomförandesystem undersöks. Vår numeriska analys visar att optimerade inställningar kan minska den totala strömförbrukningen med en betydande faktor och förlänga batteriets livslängd avsevärt jämfört med fasta parameterinställningar. | I Ref-studien studeras effektförbrukningen för en komplex skalbar H.263-kodare. | 4,916,146 | Power efficient multimedia communications over wireless channels | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,668 |
Djuplärande modeller är ofta framgångsrikt tränas med lutning nedstigning, trots det värsta fallet hårdhet av den underliggande icke-konvexa optimeringsproblem. Nyckelfrågan är då under vilka förhållanden man kan bevisa att optimeringen kommer att lyckas. Här ger vi ett starkt resultat av detta slag. Vi anser att ett neuralt nät med ett dolt lager och en konvolutionell struktur utan överlappning och en ReLU aktiveringsfunktion. För denna arkitektur visar vi att lärande är NPfullständigt i det allmänna fallet, men att när indatadistributionen är Gaussian, lutning nedstigning konvergerar till den globala optimal i polynom tid. Såvitt vi vet är detta den första globala optimaliteten garanti för lutning nedstigning på ett konvolutionellt neuralt nätverk med ReLU aktiveringar. | Brutzkus och Globerson REF visade att lutning nedstigning konvergerar till den globala optimala i polynom tid på ett grunt neuralt nätverk med ett dolt lager och en konvolutionell struktur och en ReLU aktiveringsfunktion. | 13,000,960 | Globally Optimal Gradient Descent for a ConvNet with Gaussian Inputs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,669 |
Abstrakt. I detta dokument presenteras en ram för återanvändning och utvidgning av befintliga, etablerade ordförråd i den semantiska webben. Drivs av den primära tillämpningen av expertsökning, kommer vi att undersöka återanvändning av ordförråd som har lockat en betydande användargemenskap redan (FOAF, SIOC, etc.) eller härrör från de faktiska standarder som används i verktyg eller industriell praxis (såsom vCard, iCal och Dublin Core). Detta fokus garanterar direkt tillämplighet och låga inträdeshinder, till skillnad från när man utarbetar en ny ontologi från grunden. Webben är redan befolkad med flera ordförråd som kompletterar varandra (men också har betydande överlappningar) genom att de täcker ett brett spektrum av nödvändiga funktioner för att korrekt beskriva expertsökardomänen. Hittills har små ansträngningar gjorts för att identifiera och jämföra befintliga tillvägagångssätt och för att utforma bästa praxis för hur man gemensamt kan använda och utvidga olika ordförråd. Det är målet för det nyligen påbörjade ExpertFinder-initiativet att fylla denna lucka. I detta dokument presenterar vi ExpertFinder ramverket för återanvändning och förlängning av befintliga ordförråd i Semantic Web. Vi tillhandahåller en praktisk analys av överlappningar och alternativ för kombinerad användning och utvidgning av flera befintliga ordförråd, samt ett förslag till tillämpning av regler och annan möjliggörande teknik för expertsökningen. | I REF analyserar och jämför författarna de befintliga ordförråden som en lovande källa för expertsökningsramar. | 16,751,133 | Combining RDF vocabularies for expert finding | {'venue': 'In Proceedings of the 4th European Semantic Web Conference (ESWC2007), number 4519 in Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,670 |
Vilket är det bästa sättet att bedöma prestandan hos en semantisk komponent i ett NLP-system? Tradition i NLP utvärdering säger oss att jämföra utdata mot en guld standard är en bra idé. För att definiera en guldstandard måste man först bestämma sig för representationsspråket, och i många fall verkar ett förstklassigt språk vara en bra kompromiss mellan uttryckskraft och effektivitet. För det andra måste man bestämma hur man ska representera de olika semantiska fenomenen, särskilt djupet i analysen av kvantifiering, pluraler, eventualiteter, tematiska roller, omfattning, anafora, presupposition, ellips, komparativa, superlativa, spända, aspekter och tidsuttryck. Därför kommer det att bli svårt att komma fram till en notationsplan om man inte tillåter olika nivåer av semantisk granularitet. Alternativet är en teorineutral utvärdering av svarta lådor där vi bara tittar på hur systemen reagerar på olika ingångar. För detta tillvägagångssätt kan vi överväga den välkända uppgiften att erkänna textbegrepp, eller den mindre kända uppgiften att kontrollera textmodeller. Nackdelen med svart-box metoder är att det är svårt att komma med naturliga data som täcker specifika semantiska fenomen. Formella metoder för analys av betydelsen av naturliga språkuttryck har länge begränsats till det elfenbenstorn som byggts av semantiker, logiker och språkfilosofer. Det var bara i undantagsfall som de tog sig direkt in i NLP-verktyg med öppen domän. På senare tid har situationen förändrats. Tack vare utvecklingen av trädbankar (stora samlingar av texter kommenterade med syntaktiska strukturer), robusta statistiska tolkar utbildade på sådana trädbankar, och utvecklingen av storskaliga semantiska lexica, har vi nu till vårt förfogande system som kan producera formella semantiska representationer som uppnår hög täckning (Schiehlen, 1999; Bos et al., 2004; Bos, 2005; Copestake et al., 2005; Delmonte, 2006; Sato et al., 2006; Moldovan et al., 2007). Anta att vi vill utvärdera den semantiska komponenten i sådana NLP-system. Hur ska vi gå till väga? Förmodligen det mest uppenbara sättet är att titta på de semantiska representationer som systemet producerar och jämföra det med en guld standard annotering. När allt kommer omkring, det är vad vi gör när vi utvärderar del-av-tal taggning, bitning, namngivna enhet erkännande, och syntaktisk tolkning. Men exakt hur bör en sådan guldstandard för meningsfulla representationer se ut? Vad är egentligen en lämplig semantisk representation? Bör den följa en särskild (formell) semantikteori, eller snarare inta en självständig hållning? Vilka semantiska fenomen bör den syfta till att täcka? Att ha dessa frågor är dessutom en aktuell fråga. Som påpekats ovan uppstår nu system med bred täckning som påstår sig ha genuina semantiska komponenter, och vi behöver ett otvetydigt sätt att utvärdera dessa system för att mäta proger och benchmarking. Den viktigaste frågan är om en jämförelse med en guldstandard (den så kallade "Glass-Box"-metoden) är en effektiv metod för att bedöma semantisk lämplighet. Att kommentera text med semantiska representationer är en enorm uppgift, med många val att göra, vilket jag kommer att visa i detta dokument. Alternativt skulle man kunna använda "Black-Box"-metoder för semantisk utvärdering. Jag kommer att diskutera två sådana metoder i detta dokument: uppgiften att erkänna textbegreppet och uppgiften att kontrollera textmallen. För utvärderingen av glasboxen måste vi besluta om två frågor. Det första är ett globalt val och handlar om representationsspråkets karaktär. Den andra handlar om djupet i analysen av de olika semantiska fenomen som man måste tänka på. Inom ramen för detta dokument menar jag med en semantisk representation en tolkningsbar struktur, med andra ord en logisk form med en modell-teoretisk semantik. En sådan representation har en logisk grund. Det finns många val vi kan göra här, bland dem, representationsspråk baserade på: • förslagslogik; • någon beskrivning logik (många val här); • någon modal logik (många val här också); • första ordningen logik (dvs. predikatlogik); • högre ordningslogik (d.v.s. lambda analys). Listan ovan är i stort sett beställd med uttryckskraft. Ett uttrycksfullt språk är trevligt att ha, men ofta är priset högt. Om vi antar att vi inom ramen för skalbar språkteknik tar "semantisk analys" inte bara som uppgiften att representera mening, utan också som uppgiften att automatiskt resonera med producerade betydelserepresentationer, är en kompromiss mellan uttryckskraft och praktiska resonemangsförmåga oundviklig. På ena änden av spektrumet har vi fått förslagslogik, en logik med mycket attraktiva komplexa egenskaper, men med mycket begränsade möjligheter att modellera alla intressanta 2835 | En detaljerad diskussion om formella metoder för analys av betydelsen av naturliga språkuttryck finns i REF. | 15,875,871 | Let’s not Argue about Semantics | {'venue': 'LREC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,671 |
Det djupa konvolutionella neurala nätverket (CNN) är den toppmoderna lösningen för storskalig visuell igenkänning. Efter några grundläggande principer som att öka nätdjupet och bygga motorvägsanslutningar, har forskare manuellt utformat en hel del fasta nätverksarkitekturer och verifierat deras effektivitet. I detta dokument diskuterar vi möjligheten att lära sig de djupa nätverksstrukturerna automatiskt. Observera att antalet möjliga nätverksstrukturer ökar exponentiellt med antalet lager i nätverket, vilket motiverar oss att anta den genetiska algoritmen för att effektivt utforska detta stora sökområde. Kärnidén är att föreslå en kodningsmetod för att representera varje nätverksstruktur i en binär sträng med fast längd. Den genetiska algoritmen initieras genom att generera en uppsättning randomiserade individer. I varje generation definierar vi standardgenetiska operationer, t.ex. urval, mutation och crossover, för att generera konkurrenskraftiga individer och eliminera svaga. Varje individs konkurrenskraft definieras som dess igenkänningsnoggrannhet, som erhålls genom en fristående utbildningsprocess på ett referensdataset. Vi kör den genetiska processen på CIFAR10, en småskalig datauppsättning, visar sin förmåga att hitta högkvalitativa strukturer som är lite studerade tidigare. De lärda kraftfulla strukturerna kan också överföras till ILSVRC2012-datasetet för storskalig visuell igenkänning. Det är värt att betona att den genetiska algoritmen är beräknings dyrt, eftersom vi måste genomgå en komplett nätverk utbildningsprocess för varje genererad individ. Vi antar strategin för att köra den genetiska processen på en liten datauppsättning (CIFAR10), där vi observerar förmågan hos den genetiska algoritmen att hitta effektiva nätverksstrukturer, och sedan överföra de inlärda topprankade strukturerna för att utföra storskalig visuell igenkänning. De lärda strukturerna, av vilka de flesta har varit mindre studerade tidigare, presterar ofta bättre än de manuellt utformade i antingen småskaliga eller storskaliga experiment. Resten av detta dokument är organiserat enligt följande. I avsnitt 2 presenteras kortfattat relaterade arbeten. Avsnitt 3 visar hur man använder den genetiska algoritmen för att utforma nätverksstrukturer. Experiment visas i avsnitt 4 och slutsatser dras i avsnitt 5. | Genetisk CNN REF kodar lageranslutning i en population av binära strängar och kör en standard genetisk algoritm. | 206,770,867 | Genetic CNN | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 4,672 |
Abstract – Trådlösa sensornätverk har nyligen dykt upp som ett effektivt sätt att övervaka fjärr- eller ogästvänliga fysiska miljöer. En av de största utmaningarna i utformningen av sådana nätverk ligger i de begränsade energi- och beräkningsresurser som finns tillgängliga för :sensorn noder. Dessa begränsningar måste beaktas på alla nivåer i systemhierarkin. Utbyggnaden av sensornoder är det första steget i upprättandet av ett sensornätverk. Eftersom sensornätverken innehåller ett stort antal sensornoder måste noderna sättas in i kluster, där platsen för varje enskild nod inte kan garanteras fullt ut på förhand. Därför är antalet noder som måste sättas in för att helt täcka hela det övervakade området ofta högre än om ett deterministiskt förfarande användes. I nätverk med stochasliskt placerade noder, aktivera endast det nödvändiga antalet sensornoder vid en viss tidpunkt kan spara energi. Vi introducerar en heurist som väljer ömsesidigt uteslutande uppsättningar av sensornoder, där medlemmarna av var och en av dessa uppsättningar helt täcker det övervakade området. Intervallen av aktivitet är samma för alla uppsättningar, och endast en av uppsättningarna är akthe när som helst. De experimentella resultaten visar att genom att endast använda en delmängd av sensornoder i varje ögonblick, uppnår vi en betydande energibesparingar samtidigt som täckningen bevaras fullt ut. | Slijepcevic m.fl. REF tar upp problemet med att hitta maximalt antal omslag i ett sensornätverk, där ett omslag definieras som en uppsättning noder som helt kan täcka det övervakade området. | 18,891,010 | Power efficient organization of wireless sensor networks | {'venue': 'ICC 2001. IEEE International Conference on Communications. Conference Record (Cat. No.01CH37240)', 'journal': 'ICC 2001. IEEE International Conference on Communications. Conference Record (Cat. No.01CH37240)', 'mag_field_of_study': ['Computer Science']} | 4,673 |
En populär metod för att hantera storskaliga datamängder är provtagning. Till exempel genom att använda den empiriska statistiska hävstångspoängen som en viktig provtagningsfördelning, metoden för algoritmisk hävstångsprov och skala om rader/kolumner av datamatriser för att minska datastorleken innan beräkningar utförs på delproblemet. Denna metod har varit framgångsrik i att förbättra beräkningseffektiviteten av algoritmer för matrisproblem såsom minsta-kvarts approximation, minst absoluta avvikelser approximation, och låg-rank matris approximation. Befintligt arbete har fokuserat på algoritmiska frågor som värsta tänkbara drifttider och numeriska frågor i samband med att tillhandahålla högkvalitativa implementeringar, men inget av det tar upp statistiska aspekter av denna metod. I detta dokument ger vi en enkel men effektiv ram för att utvärdera de statistiska egenskaperna hos algoritmisk hävstång i samband med uppskattning av parametrar i en linjär regressionsmodell med ett fast antal prediktorer. I synnerhet för flera versioner av hävstångsbaserad provtagning, härleder vi resultat för bias och varians, både villkorligt och villkorslöst på de observerade data. Vi visar att ur ett statistiskt perspektiv av partiskhet och varians dominerar varken hävstångsbaserad provtagning eller enhetlig provtagning den andra. Detta resultat är särskilt slående, med tanke på det välkända resultatet att, ur algoritmiskt perspektiv av värsta fall analys, hävstångsbaserad provtagning ger enhetligt överlägsen värsta fall algoritmiska resultat, jämfört med enhetlig provtagning. Baserat på dessa teoretiska resultat föreslår och analyserar vi två nya mobiliseringsalgoritmer: den ena konstruerar ett mindre minsta-kvarts problem med "krympta" hävstångspoäng (SLEV), och den andra löser ett mindre och oviktat (eller partisk) minst-kvarts problem (LEVUNW). En detaljerad empirisk utvärdering av befintliga hävstångsbaserade metoder samt dessa två nya metoder görs på både syntetiska och verkliga datamängder. De empiriska resultaten visar att vår teori är en bra prediktor för praktisk prestanda hos befintliga och nya hävstångsbaserade algoritmer och att de nya algoritmerna uppnår bättre prestanda. Till exempel, med samma beräkningsminskning som i den ursprungliga algoritmiska hävstångseffekten, leder vår föreslagna SLEV vanligtvis till förbättrade fördomar och avvikelser både villkorslöst och villkorligt (på de observerade data), och vår föreslagna LEVUNW ger vanligtvis förbättrade villkorslösa fördomar och varianser. | Den hävstångsbaserade provtagningstekniken REF väljer partiska prov i de hävstångseffektsbaserade sannolikheterna. | 7,523,489 | A Statistical Perspective on Algorithmic Leveraging | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,674 |
Abstract-Vi undersöker kvantitativt hur maskininlärningsmodeller läcker information om de enskilda dataposter på vilka de utbildades. Vi fokuserar på den grundläggande medlemskap inference attack: med tanke på en datapost och black-box tillgång till en modell, avgöra om posten var i modellens träningsdataset. För att göra en medlemsslutsats mot en målmodell använder vi oss av maskininlärning och utbildar vår egen inferensmodell för att känna igen skillnader i målmodellens förutsägelser om de ingångar som den tränade på jämfört med de ingångar som den inte tränade på. Vi utvärderar empiriskt våra inferenstekniker på klassificeringsmodeller som utbildats av kommersiella "maskininlärning som en tjänst" leverantörer som Google och Amazon. Med hjälp av realistiska datauppsättningar och klassificeringsuppgifter, inklusive en datauppsättning för sjukhusutskrivning vars medlemskap är känsligt ur ett sekretessperspektiv, visar vi att dessa modeller kan vara sårbara för medlemsinferensattacker. Vi undersöker sedan de faktorer som påverkar detta läckage och utvärderar begränsningsstrategier. | Forskningen av medlemskap inference är först inspirerad av medlemskapet integritetsproblem samtidigt distribuera maskininlärning som en tjänst REF. | 10,488,675 | Membership Inference Attacks Against Machine Learning Models | {'venue': '2017 IEEE Symposium on Security and Privacy (SP)', 'journal': '2017 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,675 |
Detta dokument beskriver AutoFocus, en effektiv flerskalig inferensalgoritm för djuplärande baserade objektdetektorer. Istället för att bearbeta en hel bildpyramid, Auto-Focus antar en grov till fin strategi och endast bearbetar regioner som sannolikt innehåller små objekt på finare skalor. Detta uppnås genom att förutsäga kategori agnostiska segmenteringskartor för små objekt på grövre skalor, som kallas FocusPixels. FocusPixels kan förutspås med hög recall, och i många fall täcker de bara en liten bråkdel av hela bilden. För att effektivt använda FocusPixels föreslås en algoritm som genererar kompakta rektangulära FocusChips som omsluter FocusPixels. Detektorn appliceras endast inuti FocusChips, vilket minskar beräkning vid bearbetning av finare skalor. Olika typer av fel kan uppstå när upptäckter från FocusChips av flera skalor kombineras, därför föreslås tekniker för att korrigera dem. AutoFocus får en mAP på 47,9% (68,3% vid 50% överlappning) på COCO test-dev set medan bearbetning 6,4 bilder per sekund på en Titan X (Pascal) GPU. Detta är 2,5× snabbare än vår flerskaliga baslinjedetektor och matchar dess mAP. Antalet pixlar som behandlas i pyramiden kan minskas med 5× med en 1% minskning i mAP. AutoFocus får mer än 10% mAP vinst jämfört med RetinaNet men körs i samma hastighet med samma ResNet-101 ryggrad. | AutoFocus approach REF förutspår "FocusPixels", regioner som sannolikt innehåller små objekt, och tillämpar multiskalningsprocessen endast på dessa regioner, vilket resulterar i förbättringar i fråga om körtid och minneseffektivitet. | 54,446,521 | AutoFocus: Efficient Multi-Scale Inference | {'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 4,676 |
Abstract-A generative adversarial network (GAN) innehåller vanligtvis ett generativt nätverk och ett diskriminerande nätverk i konkurrens med varandra. GAN har visat sin förmåga i en mängd olika tillämpningar. I detta dokument undersöks nyttan och effektiviteten av GAN för klassificering av hyperspektrala bilder (HSI) för första gången. I den föreslagna GAN, en convolutional neural network (CNN) är utformad för att diskriminera ingångar och en annan CNN används för att generera så kallade falska ingångar. De tidigare nämnda CNNs utbildas tillsammans: den generativa CNN försöker att generera falska ingångar som är så verkliga som möjligt, och den diskriminerande CNN försöker klassificera de verkliga och falska ingångar. Denna typ av kontradiktorisk träning förbättrar den allmänna förmågan hos det diskriminativa CNN, vilket är mycket viktigt när träningsproven är begränsade. Särskilt föreslår vi två system: 1) en väl utformad 1D-GAN som en spektral klassificerare och 2) en robust 3D-GAN som en spektral-spatial klassificerare. Dessutom, den genererade adver- | Zhu et al REF utvecklade en 3D-Gan som använde konvolutionella neurala nätverk för discriminator och generator. | 52,112,233 | Generative Adversarial Networks for Hyperspectral Image Classification | {'venue': 'IEEE Transactions on Geoscience and Remote Sensing', 'journal': 'IEEE Transactions on Geoscience and Remote Sensing', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,677 |
Problemet med att identifiera den optimala lokaliseringen för en ny butik har varit fokus för tidigare forskning, särskilt på området markekonomi, på grund av dess betydelse för framgången för ett företag. Traditionella synsätt på problemet har tagit hänsyn till demografi, inkomster och aggregerad statistik över mänskliga flöden från närliggande eller avlägsna områden. Insamlingen av relevanta uppgifter är dock vanligtvis dyr. Med tillväxten av lokaliseringsbaserade sociala nätverk har finkorniga data som beskriver användarnas rörlighet och platsers popularitet på senare tid blivit uppnåeliga. I detta papper studerar vi den prediktiva kraften hos olika maskininlärning funktioner på populariteten av butiker i staden genom att använda en datauppsättning som samlats in från Foursquare i New York. De funktioner vi minerar är baserade på två allmänna signaler: geografiska, där funktioner formuleras efter typ och densitet av närliggande platser, och användarrörlighet, som inkluderar övergångar mellan platser eller inkommande flöde av mobila användare från avlägsna områden. Vår utvärdering tyder på att de bäst presterande funktionerna är vanliga i de tre olika kommersiella kedjor som beaktas i analysen, även om variationer kan finnas också, som förklaras av heterogena egenskaper i hur detaljhandeln anläggningar lockar användare. Vi visar också att prestanda förbättras avsevärt när man kombinerar flera funktioner i övervakade lärande algoritmer, vilket tyder på att detaljhandeln framgång för ett företag kan bero på flera faktorer. | Karamshuk m.fl. REF extraherade funktioner som hade inverkan på detaljhandelns popularitet och föreslog nya butiksplatser baserat på dessa minerade faktorer. | 1,128,753 | Geo-spotting: mining online location-based services for optimal retail store placement | {'venue': "KDD '13", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 4,678 |
Abstract-Vi överväger utformningen av en schemaläggning politik för video streaming i ett trådlöst nätverk som bildas av flera användare och hjälpare (t.ex., basstationer). I sådana nätverk är alla användare vanligtvis i intervallet av flera hjälpare. En effektiv policy bör därför göra det möjligt för användarna att dynamiskt välja hjälpnoder att ladda ner från och anpassa kvalitetsnivån för det begärda videosegmentet. För att få en dragbar formulering, följer vi en "söndra och erövra" metod: i) Vi formulerar en Network Utility Maximization (NUM) problem där nätverksverktygsfunktionen är en konkava och komponentvis icke-decreasing funktion av den tid-genomsnittliga användares begärda videokvalitetsindex och maximization är föremål för stabiliteten i alla köer i systemet. ii) Vi löser NUM-problemet genom att använda en Lyapunov Drift Plus Straff, få en dynamisk adaptiv system som bryts ner i två byggstenar: 1) adaptiv videokvalitet och hjälp val (kör vid användarnoder); 2) dynamisk fördelning av hjälp-till-användare överföringshastigheter (kör vid hjälpnoder). Vår lösning uppnår på ett tydligt sätt NUM-optimalitet i en stark per-provbana (dvs. utan antaganden om stationaritet och ergoditet). iii) Vi observerar att eftersom alla köer i systemet är stabila, ska alla begärda videobitar slutligen levereras. iv) För att översätta den begärda videokvaliteten till den effektiva videokvaliteten vid användarens uppspelning, är det nödvändigt att bitarna levereras inom deras uppspelningstid. Detta kräver att den största fördröjningen bland alla köer på hjälparna som betjänar en viss användare är mindre än den förbuffrande tiden för den användaren vid dess streaming session startfas. För att uppnå detta villkor med stor sannolikhet föreslår vi ett effektivt och decentraliserat (om än heuristiskt) system för att på ett anpassningsbart sätt beräkna tiden för förbuffring och ombuffring hos varje användare. På detta sätt tvingas systemet att arbeta i den "smooth streaming regimen", d.v.s. i regimen av mycket liten uppspelning buffert underkörningsfrekvens. Genom simuleringar utvärderar vi prestandan hos den föreslagna algoritmen under realistiska antaganden av ett nätverk med tätt utplacerade hjälp- och användarnoder, inklusive användarrörlighet, varierande bit-rate videokodning, och användare som ansluter eller lämnar systemet vid godtyckliga tidpunkter. | Bethanabhotla m.fl. använda sig av Lyapunov drift plus straffmetod för att lösa den formulerade nätverktyg maximering problem, som uppnår själv-adaption i leverantören val och överföringshastighet mellan användare och hjälpare när det gäller användarens efterfrågan på videokvalitet REF. | 11,941,405 | Adaptive Video Streaming for Wireless Networks with Multiple Users and Helpers | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,679 |
Neurala uppgiftsorienterade dialogsystem kämpar ofta för att smidigt samverka med en kunskapsbas. I detta arbete försöker vi ta itu med detta problem genom att föreslå en ny neural dialog agent som effektivt kan upprätthålla förankrade, multi-domänen diskurs genom en ny nyckel-värde hämtning mekanism. Modellen är end-to-end-differentiable och behöver inte uttryckligen modellera dialogstat eller trosspårare. Vi släpper också en ny datauppsättning på 3 031 dialoger som bygger på underliggande kunskapsbaser och spänner över tre olika uppgifter i bilens personliga assistentutrymme: kalenderschemaläggning, väderinformationshämtning och point-of-interest navigation. Vår arkitektur är samtidigt tränad på data från alla domäner och överträffar avsevärt ett konkurrenskraftigt regelbaserat system och andra befintliga neural dialog arkitekturer på de medföljande domänerna enligt både automatiska och mänskliga utvärderingsmått. | I REF föreslogs ett nätverk för hämtning av nyckeltal tillsammans med datauppsättningen i bilen (bestående av målinriktade dialoger) för integrering av KG i sekvens-till-sekvens-modell. | 5,932,528 | Key-Value Retrieval Networks for Task-Oriented Dialogue | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,680 |
Gomtifloden i Lucknow City i Indien var en viktig vattenkälla för de olika användningsområdena för några årtionden sedan. På grund av de snabba globala förändringarna är flodens nuvarande status mycket kritisk ur miljösynpunkt, ur estetisk och kommersiell synvinkel. Hädanefter har detta forskningsarbete fokuserat på att bedöma den nuvarande och förutsäga dess framtida situation med hjälp av olika scenarier, samtidigt som man överväger viktiga drivkrafter för globala förändringar, nämligen klimatförändringar och befolkningstillväxt. Vattenutvärdering och vattenplanering (WEAP), ett numeriskt simuleringsverktyg, användes för att modellera flodvattenkvaliteten med hjälp av två scenarier. Verksamhet som vanligt (BAU) och scenario med begränsningsåtgärder. Vattenkvalitetssimuleringen gjordes längs 24 km lång sträcka av Gomtifloden nedströms från Near Moosa Bird Sanctuary till Near Bharwara. Jämförelse av simulerade vattenkvalitetsparametrar för nuvarande och BAU-status visar tydligt att vattenkvaliteten till 2030 snabbt kommer att försämras och inte kommer att vara lämplig för många vattenlevande liv när det gäller simulerade vattenkvalitetsparametrar. Resultaten från scenariot med begränsningsåtgärder tyder på att nuvarande planerade reningsverk och strategier inte är tillräckliga för att uppnå önskvärd flodvattenkvalitet inom klass B och kräver därför omedelbara och inkluderande åtgärder. | Detaljerad forskning om Gomti älvs vattenkvalitet utfördes av P. Kumar REF. | 57,375,644 | Simulation of Gomti River (Lucknow City, India) future water quality under different mitigation strategies | {'venue': 'Heliyon', 'journal': 'Heliyon', 'mag_field_of_study': ['Medicine', 'Environmental Science']} | 4,681 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.