src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
1 ägnas åt definitionen av en tillförlitlig modellering och modellbaserad utvärderingsmetod baserad på UML-modeller. Det ska användas i de tidiga faserna av systemets design för att fånga systemtillförlitlighet attribut som tillförlitlighet och tillgänglighet, vilket ger riktlinjer för valet bland olika arkitektoniska och designlösningar. Vi visar hur strukturella UML-diagram kan bearbetas för att filtrera bort tillförlitlig information och hur en systemomfattande tillförlitlighetsmodell konstrueras. På grund av den modulära konstruktionen kan denna modell förfinas senare när mer detaljerad information blir tillgänglig. Vi diskuterar modellen förfining baserat på den allmänna resursmodellen, en förlängning av UML. Vi visar att pålitligheten modellen kan konstrueras automatiskt med hjälp av graf transformation tekniker.
Majzik m.fl. I REF anges en tillförlitlighetsmodelleringsmetod baserad på UML.
8,953,074
Stochastic dependability analysis of system architecture based on uml models
{'venue': 'Architecting Dependable Systems, LNCS–2667', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,026
Vi studerar beräkningskraften hos den överbelastade klicken, en modell för distribuerad beräkning där n-spelare kommunicerar med varandra över ett komplett nätverk för att beräkna någon funktion av sina ingångar. Antalet bitar som kan skickas på valfri kant i en runda begränsas av en parameter b. Vi överväger två versioner av modellen: i den första, spelarna kommunicerar med unicast, så att de kan skicka ett annat meddelande på var och en av sina länkar i en omgång; i den andra, spelarna kommunicerar via sändning, skicka ett meddelande till alla sina grannar. Det är känt att den unicastade versionen av modellen är ganska kraftfull; hittills är inga lägre gränser för denna modell kända. I detta papper ger vi en partiell förklaring genom att visa att den engjutna kliquen kan simulera kraftfulla klasser av avgränsade djupkretsar, vilket innebär att även något super-konstant nedre gränser för den överbelastade kliquen skulle ge nya lägre gränser i kretsen komplexitet. Dessutom, under en allmänt trod gissning om matris multiplikation, triangeln detektion problem, studeras i [8], kan lösas i O(n ) tid för alla > 0. Sändningsversionen av den överbelastade klicken är den välkända flerpartsmodellen med delad svart tavla av kommunikationskomplexitet (med indata i siffror). Denna version är mer amenable till lägre gränser, och i detta papper visar vi att subgraph detektion problem studeras i [8] kräver polynomialt många rundor för flera klasser av subgrafer. Vi ger också övre gränser för subgraf detektion problem, och relaterar hårdheten av triangeln detektion i sändningen överbelastade klick till kommunikations komplexiteten av set uppdelning i 3-parts tal-on-forehead-modellen.
Dessutom visade REF att explicita lägre gränser i UCC-modellen innebär lägre kretsgränser för tröskelkretsar (TC).
13,951,165
On the power of the congested clique model
{'venue': "PODC '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,027
Vi studerar datorer alla-par kortaste vägar (APSP) på distribuerade nätverk (CONGEST-modellen). Målet är att varje nod i det (viktade) nätverket ska känna till avståndet från varje annan nod med hjälp av kommunikation. Problemet medger (1+o(1))-uppskattning Õ(n)-tidsalgoritmer [2], [3], som matchas med en (n)-tid lägre gränser [3], [4], [5] 1. Ingen nedre gräns eller o(m) övre gräns var känd för exakt beräkning. I detta dokument presenterar vi en Õ(n 5/4 )-tids randomiserad (Las Vegas) algoritm för exakt viktad APSP; detta ger den första förbättringen jämfört med den naiva O(m)-tidsalgoritmen när nätverket inte är så sparsamt. Vårt resultat håller också för fallet där kantvikter är asymmetriska (alias. Det riktade fallet där kommunikationen är dubbelriktad. Våra tekniker ger också en Õ(n 3/4 k 1/2 + n)-tidsalgoritm för ksource kortaste banor problem där vi vill att varje nod ska veta avstånd från k källor; detta förbättrar Elkin nyligen bundna [6] när k = på 1/4 ). Vi uppnår ovanstående resultat genom att utveckla distribuerade algoritmer ovanpå den klassiska skaltekniken, som vi tror används för första gången för distribuerade kortaste vägar beräkning. En ny algoritm som kan vara av oberoende intresse är för den omvända r-sänk kortaste vägar problem, där vi vill att varje r sänkor att veta sina avstånd från alla andra noder, med tanke på att varje nod redan vet sitt avstånd till varje diskbänk. Vi visar en Õ(n ε r)-tidsalgoritm för detta problem. En annan ny algoritm kallas kortdistansförlängning, där vi visar att kunskaperna om avstånd kan "utökas" för ytterligare h humle. För detta använder vi viktavrundning för att införa små additiva fel som kan fastställas senare. Anmärkning: Oberoende av vårt resultat konstaterade Elkin nyligen [6] att samma tekniker från en tidigare version av samma tidning (https://arxiv.org/abs/1703.01939v1) ledde till en O(n 5/3 log 2/3 n)-tidsalgoritm.
Den nuvarande bäst bundet för viktade APSP problem beror på den randomiserade algoritmen av Huang et al. REF som löper i Õ(n 5/4 ) rundor.
3,422,766
Distributed Exact Weighted All-Pairs Shortest Paths in Õ(n^{5/4}) Rounds
{'venue': '2017 IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS)', 'journal': '2017 IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,028
I detta dokument sammanfattas genomförandet, utvärderingen och användbarheten av icke-visuella panoreringsåtgärder för att få tillgång till grafik som återges på pekskärmsenheter. Fyra nya icke-visuella panoreringstekniker implementerades och utvärderades experimentellt på vår experimentella prototyp, kallad Vibro-Audio Interface (VAI), som ger helt icke-visuell tillgång till grafisk information med hjälp av vibration, ljud och kinetiska signaler på en kommersiell pekskärmsenhet. Denna demonstration kommer att ge en översikt över vårt systems funktioner och kommer att diskutera behovet av att utveckla icke-visuella panoreringsåtgärder som gör det möjligt för synskadade att få tillgång till grafik i stort format (t.ex. kartor och planritningar).
Palani m.fl. REF genomförde forskning längs en liknande linje och tog itu med behovet av att utföra icke-visuella panoreringsåtgärder för att få tillgång till grafisk information i stort format med hjälp av vibration, ljud och kinetiska signaler.
15,081,132
Evaluation of non-visual panning operations using touch-screen devices
{'venue': 'ASSETS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,029
Problemet med likhetssökning är ett av de största problemen inom datavetenskapen. Detta problem har många tillämpningar inom text-retrieval, webbsökning, beräkningsbiologi, bioinformatik med flera. Likhet mellan två dataobjekt kan avbildas med hjälp av ett likhetsmått eller ett avståndsmått. Det finns många avståndsmått i litteraturen, vissa används för en viss datatyp, och andra är mer allmänna. I detta dokument presenterar vi ett nytt avståndsmått för sekventiella data som baseras på summan av n-gram. Nytt med vårt avstånd är att dessa n-gram viktas med hjälp av artificiell bikoloni; en nyligen genomförd optimeringsalgoritm baserad på den kollektiva intelligensen hos en svärm av bin på deras sökande efter nektar. Denna algoritm har använts för att optimera ett stort antal numeriska problem. Vi validerar det nya avståndet experimentellt. .......................................
I ett tidigare arbete REF presenterade vi en förlängning av redigeringsavståndet, som baseras på summan av n-gram.
5,708,945
ABC-SG: A New Artificial Bee Colony Algorithm-Based Distance of Sequential Data Using Sigma Grams
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,030
Kognitiv vetenskap betonar styrkan i visuella formalismer för mänskligt lärande och problemlösning. Inom programvaruteknik kan en tydlig, visuell presentation av ett systems arkitektur avsevärt minska ansträngningen att förstå. Men alltför ofta saknar dokumentationen av komplexa programvarusystem en tydlig identifiering av de arkitektoniska beståndsdelarna och har inte tillräckligt med koppling till källkoden. Det är vår uppfattning att visualisering av de arkitektoniska beståndsdelarna i källkodsmodellen är ett oumbärligt hjälpmedel för den vägledda utvecklingen av storskaliga mjukvarusystem. I detta dokument presenterar vi ett prototypverktyg för att visualisera både publicerade, generiska designmönster samt väl genomtänkta, ad-hoc designlösningar, med tanke på den omvända-konstruerade källkoden för vissa system. Vi diskuterar arkitekturen och kärnan funktionaliteten i detta verktyg, adresserar källkod omvänd konstruktion, design arkiv, design representation, och design kluster. Därefter presenterar vi våra visualiseringsmål och detaljerar våra tekniker för mönstervisualisering. Ett exempel på fallstudie hjälper oss att explicera och illustrera vårt arbete. Nyckelord: Designvisualisering, programvaruförståelse, designmönster, designkomponent, programvaruarkitektur, objektorienterad design, verktygsstöd. Programvaruförståelse är starkt relaterad till förmågan att resonera om ett systems arkitektur [14]. Kunskap om miljön och den kultur i vilken ett system byggdes och inbäddades är en förutsättning för arkitektoniskt resonemang. Inom anläggningsbranschen kräver till exempel en djup förståelse av byggnadernas och städernas utformning att man i förväg förstår invånarnas geografi, kultur och levnadsförhållanden [1]. Detta exempel kan mycket väl anpassas för att passa många andra tekniska discipliner inklusive programvaruteknik; men det finns en subtil skillnad mellan klassisk ingenjörskonst och programvaruteknik. Medan i klassisk ingenjörskonst arkitektoniska stilar ofta kan förstås bara genom att titta på utåt synliga form och beteende i ett system, programvaruteknik saknar sådan kartläggning mellan yttre utseende och inre struktur. Inom programvaruteknik, allt för ofta, bygger resonemanget om arkitekturen i ett system på systemets input/output beteende, vilket leder till fel underhållsbeslut, som slutligen bryter den konceptuella integriteten [5] av den arkitektoniska designen. För att göra det möjligt för utvecklarna att fatta mer välgrundade beslut arbetar vi på en process och ett verktyg som kan bevara historien om både den ursprungliga designen och den efterföljande utvecklingen av programvara. Vi anser att kunskap om kulturen och utvecklingsprocessen är en förutsättning för en styrd utveckling av programvara. Att dokumentera design och ändra beslut på ett systems utvecklingsväg, och hur dessa beslut relaterar till dess grundläggande beståndsdelar (såsom klasser, attribut, metoder och relationer), är ett oumbärligt stöd för att förstå de subtila kompromisser som ingår i programvarusystem. Det är vår uppfattning att för en effektiv systemförståelse måste sådan dokumentation göras med hjälp av lämpliga visualiseringsmetoder. Vi håller med Harel om att "framgångsrik systemutveckling i framtiden kommer att kretsa kring visuella representationer" [11]. Vår inställning till en mer principiell process av programvarukonstruktion [15, 16] bygger på mönster, såsom arkitektoniska mönster, designmönster, idiomer och protomönster ("mönster i väntan som ännu inte är kända för att återkomma" [2] en kompositionsutvecklingsprocess där programvara konstrueras genom specialisering, anpassning, montering och förändring av mer grundläggande designkomponenter. Ett viktigt bidrag till detta tillvägagångssätt är att det ger kompletta mönster (det vill säga inte bara deras struktur, utan lika viktigt, deras avsikt, tillämplighet, motivation och alla andra mer informella komponenter) som konkreta programvarudesign artefakter. Ytterligare ett bidrag är att sådana konstruktionskomponenter kan tjäna som grund för en process för utveckling av kompositionsprogramvara, där grundläggande konstruktionskomponenter monteras på sammansatta komponenter, som i sin tur kan fungera som grundläggande komponenter för en mer komplett eller mer komplex design. Slutligen är ett tredje bidrag att utvecklingen av konstruktionskomponenter kan spåras, vilket gör det möjligt att se tillbaka på ett systems historia och dess arkitektoniska utveckling. För ytterligare detaljer om detta tillvägagångssätt, se [15, 16]. I detta dokument fokuserar vi på visualisering av mönsterbaserad programvarudesign och dess logik, och diskuterar ett prototypverktyg som vi har utvecklat för detta ändamål. Som en motivering utgör avsnitt 2 i dokumentet ett exempel på fallstudier. Avsnitt 3 beskriver kärnfunktionaliteten och arkitekturen i vårt verktyg. Specifikt omfattas fyra aspekter: källkod omvänd konstruktion, design arkiv, design representation och konstruktion kluster. Sedan, avsnitt 4 detaljer visualisering aspekten av design mönster konstruktion. Avsnitt 5 behandlar relaterat arbete och slutligen avsnitt 6 innehåller en sammanfattning och en diskussion om det pågående arbetet. Gamma och al. [9] motivera sin designmönsterkatalog med en fallstudie där de tillämpar några av sina designmönster på Lexi, en förenklad version av Doc redaktör [6]. Lexi möjliggör redigering av dokument som innehåller text, grafik, diagram och liknande, stöder flera formateringsalgoritmer för textlayout och uppvisar ett grafiskt användargränssnitt. Gamma och al. beskriva sju designproblem när man bygger en sådan dokumentredigerare och använda åtta mönster för sin lösning (tabell 1). I detta dokument använder vi Lexi som en fallstudie, eftersom det har en begränsad räckvidd, men ändå är tillräckligt komplex för att kommunicera alla viktiga frågor i vår design visualiseringsstrategi. Figur 1 visar Lexi som ett kluster av inbördes relaterade klasser och klasshierarkier. Om man ser på Lexi ur detta perspektiv, kan man mycket väl förstå dess klassstruktur, men ändå, det kommer att krävas även en professionell designer en hel del ansträngningar för att till fullo förstå det ansvar som ingår i Lexi design, och för att förstå hur dessa ansvarsområden är utspridda över de olika klasserna. I huvudsak förmedlar figur 1 inte de designproblem och lösningar som går utöver klasser och klasshierarkier. Figur 2, I kontrast, visar samma klass diagram, men överlagd med ytterligare designinformation. Det illustrerar de komplexa mekanismer som håller ihop Lexi, och visar de klasser där dessa mekanismer samarbetar för att utföra systemets ansvar. I Lexi är dessa mekanismer baserade på välkända, väl beprövade mönster, vilket ytterligare ökar uttrycket i diagrammet. Design mönster är de fordon som förmedlar till läsaren av diagrammet inte bara struktur, beteende och dynamik design, men lika viktigt, 1 Verktyget använder färgade konturer runt klasser för att skilja mellan mönster; för denna svart/vit presentation valde vi att använda omslutande polygoner istället. konstruktionsmotivering och de kompromisser som gjordes när man valde en viss form av genomförande [9]. Information om den konceptuella arkitekturen är nödvändig för den guidade utvecklingen av programvara, men knappast tillgänglig och oprecis kommunicerad till utvecklaren i traditionella programvaruutvecklingsmiljöer. Denna brist på information gör det svårt att fastställa vilka klasser som är lämpligast för att införliva ansvaret för nya eller ändrade systemkrav. Med mönsterbaserad visualisering strävar vi efter att öka informationsinnehållet i diagram och ge mer insikt i programvarans konceptuella arkitektur. Ovanstående exempel bör vara tillräckligt motiverande för att föreställa sig tekniker och verktyg som organiserar programvara runt mönster, visualisera dem och möjliggöra zoomning in och ut ur både formella och informella mönsterkomponenter. I detta avsnitt diskuterar vi kärnfunktionaliteten och arkitekturen hos det prototypverktyg vi har utvecklat för att stödja dessa aktiviteter. Syftet med detta verktyg är att hjälpa till att förstå programvara genom sin organisation runt mönster. Verktyget tar upp fyra huvudfrågor: källkod omvänd konstruktion, design arkiv, design representation, och design kluster (se figur 3 ). Syftet med källkod omvänd konstruktion är att extrahera en modell från källkod. Vid denna tidpunkt stöder vi endast C++. Med hjälp av C++ källkodsanalyssystemet GEN++ [7] genererar vårt verktyg en intermediär AS-CII-baserad representation av relevanta källkodselement: klasser, attribut, metoder, generaliseringsrelationer, associationsrelationer och ögonblicksrelationer. Ett importverktyg tolkar denna mellanliggande representation och lagrar källmodellen i ett centralt arkiv, kallat designarkiv. Vår avsikt med detta ASCII-baserade mellanformat var att göra verktyget oberoende av något specifikt programmeringsspråk. I en kommande version kommer vi att stödja CDIF (CASE Data Interchange Format) som mellanliggande representation, för bättre kompatibilitet med kommersiella CASE miljöer. Syftet med designarkivet är att tillhandahålla centraliserad lagring, manipulation och förfrågan av källmodellen, de abstrakta designmönstren ("off-the-shelf"-designmönstren som finns i litteraturen och beskrivs i mallformat [9] ), och de implementerade designmönstren inom källmodellen. Schemat för designarkivet är baserat på UML-metamodellen 1.1 [22]. För närvarande fungerar det objektorienterade databashanteringssystemet Poet50 [19] som gränssnitt. Schemat representeras som en Java 1.1 klasshierarki; klasserna inom denna hierarki utgör modellerna för MVC-baserade grafiska redaktörer av verktyget. Med hjälp av förkompilatorn av Poet50:s Java Tight Bindning kan en objektorienterad databas genereras från denna klasshierarki. Syftet med designrepresentation är att tillhandahålla interaktiv visualisering och förfining av källkodsmodeller, abstrakta designmönster och implementerade mönster. Denna komponent implementeras baserat på Java 1.1 och det grafiska redigeringsprogrammet jKit/GO [13]. I det nuvarande utvecklingsstadiet har vi implementerat klassdiagram baserade på UML notation 1.1 [22]. De informella beståndsdelarna i designmönster beskrivs med HTML. För att visualisera HTML-koden används ICEBrowser-verktyget [12], en JavaBeans-komponent.
Schauer & Keller REF utvecklade ett verktyg för att dokumentera programvarusystem.
562,404
Pattern visualization for software comprehension
{'venue': "Proceedings. 6th International Workshop on Program Comprehension. IWPC'98 (Cat. No.98TB100242)", 'journal': "Proceedings. 6th International Workshop on Program Comprehension. IWPC'98 (Cat. No.98TB100242)", 'mag_field_of_study': ['Computer Science']}
7,031
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation.
Ett protokoll om hybridenergieffektiv distribution (HEED) föreslogs i REF.
2,012,679
HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
7,032
Detta dokument presenterar en Saliency detektionsalgoritm genom att integrera både lokal uppskattning och global sökning. I det lokala skattningsstadiet upptäcker vi lokal salthalt genom att använda ett djupt neuralt nätverk (DNN-L) som lär sig lokala patchfunktioner för att bestämma saltvärdet för varje pixel. De uppskattade lokala översiktskartorna förfinas ytterligare genom att man utforskar objektkoncepten på hög nivå. I det globala sökstadiet används den lokala lönekartan tillsammans med global kontrast och geometrisk information som globala funktioner för att beskriva en uppsättning objektkandidatregioner. Ett annat djupt neuralt nätverk (DNN-G) tränas för att förutsäga saliency poäng för varje objekt region baserat på de globala funktionerna. Den slutliga soliditetskartan genereras av en viktad summa av framträdande objektregioner. Vår metod ger två intressanta insikter. För det första kan lokala funktioner som man lärt sig av ett övervakat system effektivt fånga upp lokal kontrast, struktur och forminformation för detektering av beständighet. För det andra kan det komplexa förhållandet mellan olika globala soliditetskurer fångas upp av djupa nätverk och utnyttjas huvudsakligen snarare än heuritiskt. Kvantitativa och kvalitativa experiment på flera referensdatauppsättningar visar att vår algoritm presterar gynnsamt mot toppmoderna metoder.
Wang m.fl. REF förutspådde soliditetskartor genom att integrera både lokal uppskattning och global sökning.
164,628
Deep networks for saliency detection via local estimation and global search
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
7,033
Abstract -Vi presenterar en ny randomiserad nätkodningsmetod för robust, distribuerad överföring och komprimering av information i nätverk, och visar på dess fördelar jämfört med routing-baserade metoder. Vi presenterar en randomiserad nätkodningsmetod för robust, distribuerad överföring och komprimering av information i nätverk. Nätverksnoder överför på varje utgående länk en linjär kombination av inkommande signaler, specificerade av oberoende och slumpmässigt valda kodkoefficienter från vissa ändliga fält F. Den enda information som behövs för att avkoda en t-mottagare är den totala linjära kombinationen av källprocesser som finns i var och en av deras inkommande signaler. Denna information kan behållas, för varje signal i nätverket, som en vektor av koefficienter för var och en av källprocesserna, och uppdateras genom varje kodning nod tillämpa samma linjära kombinationer t o koefficientvektorer som för data. Se [l], [3] för tidigare arbete med nätkodning [4] för arbete med slumpmässig routing och [2] för stödjande resultat som används i våra bevis. Vi ger en lägre gräns på framgångsannolikheten för slumpmässiga nätverkskodning för multicast-anslutningar, baserat på formen av överföringsmatris determinant polynom [3], som är hårdare än Schwartz-Zippel bundet för allmänna polynom av samma totala grad. Motsvarande övre gräns vid felsannolikhet är i storleksordningen omvänt av storleken på det finita fältet, vilket visar att det kan göras godtyckligt litet genom kodning i ett tillräckligt stort ändligt fält, och att det minskar exponentiellt med antalet kodord bitar. Detta tyder på att slumpmässiga koder är potentiellt mycket användbara för nätverk med okända eller föränderliga topologier. Vi modellerar ett nätverk som en delay-free acyklisk graf med enhetskapacitet riktade länkar" och en eller flera diskreta källor. Randomiserad kodning kan strikt överträffa routing i vissa distribuerade inställningar. För illustration, överväga problemet med att skicka två processer från en källa nod till mottagare noder på slumpmässiga okända platser på ett rektangulärt rutnät, med hjälp av en distribuerad överföringsschema som inte involverar ~ ~ 'Vår modell medger parallella länkar. 2d,d.v.s. Resultatet innehåller för nätverk där inte alla noder utför slumpmässig kodning, eller där signaler lägger till genom superposition på vissa kanaler all kommunikation mellan noder eller routingtillstånd. För att maximera sannolikheten för att någon mottagare nod kommer att få två separata meddelanden, det bästa som en nod med två inkommande länkar kan göra är att försöka bevara meddelandemångfald genom att skicka en inkommande signal på en av sina två utgående länkar med lika stor sannolikhet, och den andra signalen på den återstående länken. Vi härleder kombinatoriskt en övre gräns på routing framgångsannolikheten för en källa-mottagare par i termer av deras relativa rutnät platser, som överträffas av motsvarande lägre gräns för randomiserad kodning i tillräckligt stora ändliga fält. Dessa gränser visas i tabell 1. Vår lägre gräns för kodning framgång sannolikhet gäller för linjärt korrelerade källor, där effekten av randomiserade kodning kan ses som distribuerad kompression sker inom nätverket snarare än en t källorna. För en genomförbar multicast anslutningsproblem och en randomiserad kod av tillräcklig komplexitet, med stor sannolikhet den information som flödar över alla nedskärningar kommer att vara tillräcklig för att rekonstruera de ursprungliga källprocesserna. I själva verket komprimeras källinformationen till kapaciteten hos varje snitt som den passerar igenom. Detta uppnås utan behov av samordning mellan källnoder, vilket är fördelaktigt i distribuerade miljöer där sådan samordning är omöjlig eller dyr. Slutligen noterar vi att detta tillvägagångssätt uppnår stabilitet på ett sätt som skiljer sig helt från traditionella tillvägagångssätt. Traditionellt tillämpas kompression en t-källkod noder för att minimera nödvändig överföringshastighet och lämna reservnätskapacitet, och tillägg av nya källor kan kräva ombokning av befintliga anslutningar. Vår strategi utnyttjar fullt ut tillgänglig eller tilldelad nätverkskapacitet för maximal robusthet, samtidigt som vi behåller full flexibilitet för att hantera förändringar i nätverkstopologi eller tillägg av nya källor.
Ho et al. - Vad är det för fel på dig? REF presenterar en polynomisk förväntad tidsbyggnad till samma problem, med hjälp av en randomiserad metod.
1,903,754
The benefits of coding over routing in a randomized setting
{'venue': 'IEEE International Symposium on Information Theory, 2003. Proceedings.', 'journal': 'IEEE International Symposium on Information Theory, 2003. Proceedings.', 'mag_field_of_study': ['Computer Science']}
7,034
Sequence to sequency learning har nyligen dykt upp som ett nytt paradigm i övervakat lärande. Hittills har de flesta av dess tillämpningar fokuserat på bara en uppgift och inte mycket arbete utforskat denna ram för flera uppgifter. Detta dokument undersöker tre multi-task inlärning (MTL) inställningar för sekvens till sekvens modeller: a) en till-many inställning -där kodaren delas mellan flera uppgifter som maskinöversättning och syntaktisk tolkning, b) många-till-en inställning -användbar när endast dekoder kan delas, som i fallet med översättning och bildtextgenerering, och c) många-till-många inställning -där flera kodare och avkodare delas, vilket är fallet med oöverträffade mål och översättning. Våra resultat visar att utbildning på en liten mängd tolknings- och bildtextdata kan förbättra översättningskvaliteten mellan engelska och tyska med upp till 1,5 BLEU-poäng över starka basvärden för en enda uppgift på WMT-riktmärkena. Dessutom har vi etablerat ett nytt toppmodernt resultat i tolkningen med 93,0 F 1. Slutligen avslöjar vi intressanta egenskaper hos de två oövervakade inlärningsmålen, autoencoder och skip-thought, i MTL-sammanhanget: autoencoder hjälper mindre i termer av perplexitet men mer på BLEU poäng jämfört med skip-thought.
REF studerar ensemblen av ett brett spektrum av uppgifter (t.ex. syntaktisk tolkning, maskinöversättning, bildtext etc.) med multi-task sekvens-till-sekvens-modeller.
6,954,272
Multi-task Sequence to Sequence Learning
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,035
Djupt lärande har visat imponerande resultat när det gäller svåra perceptuella problem. Forskarna fann emellertid att djupinlärningssystem är sårbara för små, speciellt skapade perturbationer som är omärkliga för människor. Sådana störningar får system för djupinlärning att missklassificera kontradiktoriska exempel, med potentiellt katastrofala konsekvenser där säkerhet eller trygghet är avgörande. Tidigare försvar mot kontradiktoriska exempel antingen riktade specifika attacker eller visade sig vara ineffektiva. Vi föreslår MagNet, ett ramverk för att försvara neurala nätverk klassificerare mot kontradiktoriska exempel. MagNet varken ändrar den skyddade klassificeringen eller kräver kunskap om processen för att generera kontradiktoriska exempel. MagNet omfattar ett eller flera separata detektornätverk och ett reformnätverk. Detektornätverken lär sig att skilja mellan normala och kontradiktoriska exempel genom att approximera mångfaldiga normala exempel. Eftersom de inte antar någon specifik process för att generera kontradiktoriska exempel, generaliserar de väl. Reformernätverket flyttar kontradiktoriska exempel mot de många vanliga exemplen, vilket är effektivt för att korrekt klassificera kontradiktoriska exempel med liten perturbation. Vi diskuterar de inneboende svårigheterna med att försvara oss mot whiteboxattacker och föreslår en mekanism för att försvara sig mot whiteboxattacker. Inspirerade av användningen av slumpmässighet i kryptografi använder vi mångfald för att stärka MagNet. Vi visar empiriskt att MagNet är effektivt mot de mest avancerade state-of-the-art attacker i blackbox och gråbox scenarier utan att offra falsk positiv hastighet på normala exempel. • Säkerhet och integritet → Domänspecifika säkerhets- och sekretessarkitekturer; • Datoriska metoder → Neurala nätverk; KEYWORDS kontradiktoriska exempel, neurala nätverk, autoencoder Tillstånd att göra digitala eller hårda kopior av hela eller en del av detta arbete för personligt eller klassrum användning beviljas utan avgift förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga citering på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än upphovsmannen måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. Figur 1: En illustration av reformatorns inverkan på motgångar. Den andra raden visar kontradiktoriska exempel som genererats från de ursprungliga normala exemplen i den första raden av Carlinis L ∞ attack. Den tredje raden visar deras perturbationer mot de ursprungliga exemplen, och dessa perturbationer saknar framträdande mönster. Den fjärde raden visar de kontradiktoriska exemplen efter att ha reformerats av MagNet. Den femte raden visar de återstående perturbationer i de reformerade exemplen mot deras ursprungliga exempel i den första raden, och dessa perturbationer har formen av sina ursprungliga exempel.
Magnet av Meng et al. REF flyttar också kontradiktoriska prover mot mångfaldiga naturliga bilder genom att använda en autoencoder eller en samling autoencoders.
3,583,538
MagNet: A Two-Pronged Defense against Adversarial Examples
{'venue': "CCS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,036
I strategier för att minska dimensionaliteten är data vanligtvis inbäddade i ett latent rum i Euclidean. För vissa datamängder är detta dock olämpligt. Till exempel, i mänskliga rörelsedata förväntar vi oss latenta utrymmen som är cylindriska eller en toroidal, som är dåligt fångade med en Euclidean utrymme. I detta dokument presenterar vi en rad metoder för att inbädda data i ett latent utrymme utanför Euklide. Vårt fokus är Gaussian Process latent variabel modell. I samband med mänsklig rörelsemodellering gör det möjligt för oss att (a) lära oss modeller med uttydbara latenta riktningar som gör det möjligt att till exempel separera stil/innehåll, och (b) generalisera bortom datauppsättningen så att vi kan lära oss övergångar mellan rörelsestilar även om sådana övergångar inte finns i data.
En inbäddning av latenta variabler i icke-Euklidiska utrymme presenteras för GP latent variabla modeller av REF.
12,183,624
Topologically-constrained latent variable models
{'venue': "ICML '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,037
I detta papper presenteras en ny metod för att utvinna väggöppningar (fönster och dörrar) av interiörscener från punktmoln under belamrade och ockrerade miljöer. För varje väggyta som extraheras av polyhedralmodellen av ett rum, konstruerar vår metod en cellkomplex representation, som används för väggobjekt segmentering med hjälp av en graf-skuren metod. Vi utvärderar resultaten av det föreslagna tillvägagångssättet för verkliga 3D-skanningar av inomhusmiljöer och visar dess giltighet.
För att förvärva både fönster och dörrar i inomhusmiljöer demonstrerades en öppningsmetod med grafskärningar för att bearbeta punktmoln under belamrade och ockluderade miljöer i REF.
2,737,779
Bayesian graph-cut optimization for wall surfaces reconstruction in indoor environments
{'venue': 'The Visual Computer', 'journal': 'The Visual Computer', 'mag_field_of_study': ['Computer Science']}
7,038
I detta dokument introducerar vi en ny semantisk tolkningsmetod för att fråga Freebase i naturligt språk utan att kräva manuella kommentarer eller frågesvar par. Vår nyckelinsikt är att representera naturligt språk via semantiska grafer vars topologi delar många likheter med Freebase. Med tanke på denna representation, vi konceptualiserar semantisk tolkning som ett diagram matchande problem. Vår modell konverterar meningar till semantiska grafer med hjälp av CCG och sedan baserar dem till Freebase guidade av denotationer som en form av svag övervakning. Utvärderingsförsök på en delmängd av FRI917 och WEBQUESTIONS referensdatauppsättningar visar vår semantiska parser förbättrar över state of the art.
REF konceptualiserade semantisk tolkning som ett diagram som matchar problem genom att bygga grafer med kombinatoriska kategorial Grammar parses.
15,324,422
Large-scale Semantic Parsing without Question-Answer Pairs
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
7,039
Vi föreslår det första genomförandet av en oändlig generativ beroendemodell. Modellen är baserad på en ny rekursiv neural nätverk arkitektur, Inside-Outside Recursive Neural Network. Denna arkitektur gör det möjligt för information att flöda inte bara bottom-up, som i traditionella rekursiva neurala nätverk, men också topdown. Detta uppnås genom att datorinnehåll samt sammanhangsrepresentationer för alla beståndsdelar, och låta dessa representationer interagera. Experimentella resultat på den engelska delen av Universal Dependency Treebank visar att den oändliga ordningsmodellen uppnår en perplexitet sju gånger lägre än den traditionella tredje ordningens modell genom att räkna, och tenderar att välja mer exakta parser i k-bästa listor. Dessutom ger omplacering med denna modell toppmoderna omärkta fästen poäng och omärkta exakta matchpoäng.
REF ) implementerar en generativ beroendemodell med ett rekursivt neuralt nätverk, men modellen används för omplacering som behöver k-bästa kandidater.
17,048,295
The Inside-Outside Recursive Neural Network model for Dependency Parsing
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,040
Abstract-Active lärande minskar märkningskostnaden genom att iterativt välja de mest värdefulla data för att fråga sina etiketter. Det har lockat en hel del intressen med tanke på mängden omärkta data och den höga kostnaden för märkning. De flesta aktiva inlärningsmetoder väljer antingen informativa eller representativa omärkta instanser för att fråga ut sina etiketter, vilket avsevärt kan begränsa deras prestanda. Även om flera aktiva inlärningsalgoritmer föreslogs för att kombinera de två urvalskriterierna, är de vanligtvis ad hoc när det gäller att hitta omärkta fall som är både informativa och representativa. Vi tar itu med denna begränsning genom att utveckla en principiell strategi, kallad QUIRE, baserad på minmax-synen på aktivt lärande. Det föreslagna tillvägagångssättet ger ett systematiskt sätt att mäta och kombinera en omärkt instanss informativhet och representativitet. Dessutom, genom att införliva korrelationen mellan etiketter, utökar vi QUIRE-metoden till multi-märkning lärande genom att aktivt fråga instans-märkning par. Omfattande experimentella resultat visar att den föreslagna QUIRE-metoden överträffar flera toppmoderna metoder för aktivt lärande i både enmärkt och flermärkt lärande.
REF frågar de informativa och representativa proven baserat på ett min-max-ramverk.
8,326,832
Active Learning by Querying Informative and Representative Examples
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,041
Att matcha människor över icke-överlappande kameravyer, så kallad personåteridentifiering, är en utmaning på grund av bristen på rumsliga och tidsmässiga begränsningar och stora visuella förändringar som orsakas av variationer i siktvinkel, belysning, bakgrundsförlamning och ocklusion. För att ta itu med dessa utmaningar syftar de flesta tidigare tillvägagångssätt till att extrahera visuella egenskaper som är både distinkta och stabila under utseende förändringar. De flesta visuella egenskaper och deras kombinationer under realistiska förhållanden är dock varken stabila eller särskiljande och bör därför inte användas urskillningslöst. I detta dokument föreslår vi att personen återidentifieras som ett problem med distansundervisningen, som syftar till att lära sig det optimala avståndet som kan maximera matchningsnoggrannheten oavsett val av representation. I detta syfte introducerar vi en ny modell för Probabilistic Relative Distance Comparison (PRDC), som skiljer sig från de flesta befintliga metoder för distansundervisning, i stället för att minimera variation inom klassen samtidigt som den maximerar variation inom klassen, det syftar till att maximera sannolikheten för ett par äkta match med ett mindre avstånd än ett fel matchpar. Detta gör vår modell mer tolerant mot utseendeförändringar och mindre mottaglig för modellövermontering. Omfattande experiment utförs för att visa att 1) genom att formulera personens omidentifieringsproblem som ett problem för distansundervisning, kan märkbar förbättring av matchningsnoggrannheten uppnås mot konventionella personers omidentifieringsmetoder, vilket är särskilt viktigt när utbildningsprovet är litet, och 2) vårt PRDC överträffar inte bara befintliga metoder för distansundervisning utan också alternativa inlärningsmetoder som bygger på att öka och lära sig att rangordna.
Zheng m.fl. REF föreslog den PRDC-baserade metoden där sannolikheten för att ett par äkta tändstickor ska ha ett mindre avstånd än ett felaktigt tändstickspar maximeras.
13,619,630
Person re-identification by probabilistic relative distance comparison
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
7,042
....................................... Med TextureGAN kan man skapa nya fall av vanliga objekt från handritade skisser och enkla texturplåster. Nu kan du vara din egen modeguru! Översta raden: Sketch med texturplåster överlagt. Nedre raden: Resultat från TextureGAN. I den här artikeln undersöker vi djupbildssyntesen styrd av skiss, färg och textur. Tidigare bildsyntesmetoder kan styras av skiss och färgdrag men vi är först med att undersöka texturkontroll. Vi tillåter en användare att placera en textur patch på en skiss på godtyckliga platser och skalor för att kontrollera önskad utdatastruktur. Vårt generativa nätverk lär sig att syntetisera objekt som överensstämmer med dessa texturförslag. För att uppnå detta utvecklar vi en lokal texturförlust utöver kontradiktorisk och innehållsförlust för att träna det generativa nätverket. Vi utför experiment med hjälp av skisser genererade från verkliga bilder och texturer provtagna från en separat texturdatabas och resultat visar att vår föreslagna algoritm kan generera trovärdiga bilder som är trogna användarkontroller. Ablationsstudier visar att vår föreslagna pipeline kan generera mer realistiska bilder än att anpassa befintliga metoder direkt.
Xian m.fl. REF underlättade texturredigering, genom att tillåta användare att placera en önskad textur patch.
4,872,519
TextureGAN: Controlling Deep Image Synthesis with Texture Patches
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
7,043
Mycket av den datasäkerhetsinformation som regelbundet samlas in och sprids av individer och organisationer kan för närvarande inte kombineras eller jämföras eftersom ett "gemensamt språk" ännu inte har dykt upp på området datorsäkerhet. Ett gemensamt språk består av termer och taxonomier (klassificeringsprinciper) som gör det möjligt att samla in, utbyta och jämföra information. I detta dokument presenteras resultaten av ett projekt för att utveckla ett sådant gemensamt språk för datasäkerhetsincidenter. Detta projekt är ett resultat av samarbetet mellan säkerhets- och nätverksforskningsgruppen vid Sandia National Laboratories, Livermore, CA, och CERT ® Coordination Center vid Carnegie Mellon University, Pittsburgh, PA. Detta gemensamma språkprojekt var inte ett försök att utveckla en omfattande ordlista över termer som används inom området datorsäkerhet. Istället utvecklade vi en minimiuppsättning av "högnivå" termer, tillsammans med en struktur som anger deras relation (en taxonomi), som kan användas för att klassificera och förstå datasäkerhetsincidenter information. Vi hoppas att dessa "högnivåvillkor" och deras struktur kommer att få bred acceptans, vara användbara och framför allt möjliggöra utbyte och jämförelse av information om datasäkerhetsincidenter. Vi förväntar oss dock att individer och organisationer kommer att fortsätta att använda sina egna termer, som kan vara mer specifika både i betydelse och användning. Vi utformade det gemensamma språket för att göra det möjligt att klassificera dessa "lägre" termer inom den gemensamma språkstrukturen.
I REF presenteras en detaljerad datasäkerhetsincidenter taxonomi.
60,687,419
A Common Language for Computer Security Incidents
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,044
Detta dokument behandlar QLtl, en kvantitativ analagon av Ltl och presenterar algoritmer för modellkontroll av QLtl över kvantitativa versioner av Kripke strukturer och Markov kedjor.
I REF presenterar författarna QLTL, en kvantitativ analog av LTL och presenterar algoritmer för modellkontroll över kvantitativa versioner av Kripke strukturer och Markov kedjor.
11,007,800
Model checking Quantitative Linear Time Logic
{'venue': 'Electron. Notes Theor. Comput. Sci.', 'journal': 'Electron. Notes Theor. Comput. Sci.', 'mag_field_of_study': ['Computer Science']}
7,045
Vi beskriver MÈLÉE, en metalärande algoritm för att lära sig en bra prospekteringspolitik i den interaktiva kontextuella banditmiljön. Här måste en algoritm vidta åtgärder som bygger på sammanhang, och lära sig utifrån endast en belöningssignal från de åtgärder som vidtagits, vilket skapar en utforskning/exploatering-avsättning. MÈLÉE tar itu med denna kompromiss genom att lära sig en bra prospekteringsstrategi för offlineuppgifter baserade på syntetiska data, där den kan simulera den kontextuella banditinställningen. Baserat på dessa simuleringar använder MÈLÉE en imitationsutbildningsstrategi för att lära sig en bra prospekteringspolitik som sedan kan tillämpas på verkliga kontextuella bandituppgifter vid testtillfället. Vi jämför MÈLÉE med sju starka grundläggande kontextuella banditalgoritmer på en uppsättning av trehundra verkliga datauppsättningar, där det överträffar alternativ i de flesta miljöer, särskilt när skillnader i belöningar är stora. Slutligen visar vi hur viktigt det är att ha en rik funktionsrepresentation för att lära sig utforska.
Sharaz och Daumé REF föreslog att man skulle använda en Imitation Learning-baserad metod, "MÈLÉE"-algoritm baserad på AggreVaTe.
59,222,741
Meta-Learning for Contextual Bandit Exploration
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,046
Abstract-Recently, foveated video kompressionsalgoritmer har föreslagits som, i vissa tillämpningar, levererar högkvalitativ video till reducerade bithastigheter genom att försöka matcha den icke-uniforma provtagningen av den mänskliga näthinnan. Vi beskriver en sådan ram här där foveated video skapas av ett icke-uniform filtreringssystem som ökar komprimerandet av videoströmmen. Vi maximerar en ny foveal visuell kvalitet metrisk, foveal signal-till-brus-förhållandet (FSNR) för att bestämma de bästa komprimerings- och hastighetskontrollparametrarna för en given bithastighet. Speciellt etablerar vi en ny algoritm för optimal hastighetskontroll för att maximera FSNR med hjälp av en Lagrange multiplikatormetod definierad på ett curvilinear koordinatsystem. För optimal hastighetskontroll utvecklar vi också en bitvis (hastighet-förvrängning)/(hastighet-kvantisering) modell. En snabb algoritm för att söka efter en optimal Lagrange multiplikator presenteras därefter. För de nya modellerna visar vi hur den rekonstruerade videokvaliteten påverkas, var FPSNR maximeras och visar kodningsprestandan för H.263,+,++/MPEG-4 videokodning. För H.263/MPEG-videokodning utvecklas en suboptimal hastighetskontrollalgoritm för snabba, högpresterande applikationer. I simuleringarna jämför vi de rekonstruerade bilderna som erhållits med hjälp av optimala hastighetskontrollmetoder för foveated och normal video. Vi visar att foveated videokodning med hjälp av den suboptimala hastighetskontrollalgoritmen ger utmärkt prestanda under 64 kb/s.
Pattichis REF diskuterade hur man optimalt kan kontrollera bithastigheten för en MPEG-4/H.263 stream för foveated kodning.
15,295,048
Foveated video compression with optimal rate control
{'venue': 'IEEE transactions on image processing : a publication of the IEEE Signal Processing Society', 'journal': 'IEEE transactions on image processing : a publication of the IEEE Signal Processing Society', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
7,047
Abstrakt. Många komplexa system kan beskrivas i termer av nätverk av samverkande enheter. Nyligen genomförda studier har visat att en bred klass av både naturliga och konstgjorda nät uppvisar en förvånansvärt utbredd egenskap: förekomsten av mycket heterogena fördelningar av länkar, vilket ger en extraordinär källa till robusthet mot störningar. Även om de flesta teorier om ursprunget till dessa topologier använder växande grafer, visar vi här att en enkel optimeringsprocess också kan redogöra för de observerade regulariteterna som visas av de mest komplexa nät. Med hjälp av en evolutionsalgoritm som innefattar minimering av länktäthet och medelavstånd stöter man på fyra huvudtyper av nätverk: a) glesa exponentiella nätverk, b) glesa skalfria nätverk, c) stjärnnät och d) mycket täta nätverk, som uppenbarligen definierar tre huvudfaser. Dessa begränsningar ger en ny förklaring till skalning av exponenten om −3. De evolutionära konsekvenserna av dessa resultat beskrivs.
Cancho m.fl. använde en evolutional algoritm som innebär minimering av länktäthet och genomsnittliga avstånd, och genererade olika typer av nätverk, inklusive glesa nätverk med makt lag grad distributioner REF.
8,912,171
Optimization in Complex Networks
{'venue': 'In http://arxiv.org/PS cache/condmat/pdf/0111/0111222.pdf', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics']}
7,048
Abstract-Net bearbetade styrsystem under vissa cyberattacker analyseras. Kommunikationsnätet för dessa kontrollsystem gör dem sårbara för angrepp från illvilliga utomstående. Vårt arbete handlar om två typer av attacker: attacker på nätverksnoder och attacker på kommunikationen mellan noderna. Vi föreslår ett distribuerat system för att upptäcka och isolera attackerna med hjälp av observatörer. Dessutom diskuterar vi hur man kan minska antalet observatörsnoder samtidigt som hela nätverkets täckning bibehålls. Resultaten tillämpas på två klasser av nätverksstyrda styrsystem: ett nätverk som kör konsensusprotokollet och ett kraftnät som definieras av den linjäriserade svängekvationen. Tillräckliga villkor för förekomsten av det föreslagna systemet för att upptäcka angrepp finns för den första klassen av system. För den andra klassen ger vi ett nödvändigt villkor för förekomsten av det föreslagna spårningssystemet.
I REF studerar författarna upptäckt och identifiering av it-angrepp på nätverksbaserade styrsystem som är modellerade som kontinuerliga linjära system.
14,817,418
Networked control systems under cyber attacks with applications to power networks
{'venue': 'Proceedings of the 2010 American Control Conference', 'journal': 'Proceedings of the 2010 American Control Conference', 'mag_field_of_study': ['Computer Science']}
7,049
Flera trafikövervakningstillämpningar kan dra nytta av att det finns effektiva mekanismer för att i stort sett spåra utjämnade tidsmedelvärden snarare än råa värden. Detta dokument ger två bidrag i denna riktning. För det första, vår analys av tidsfördröjning Bloom filter, tidigare föreslagna datastrukturer utformade för att utföra ungefärlig Exponentiellt viktade glidande medelvärden på strömmande data, avslöjar två stora brister: partisk uppskattning när mätningar läses i godtyckliga ögonblick, och långsam drift som följer av behovet att regelbundet uppdatera alla filterräknare på en gång. Vi föreslår därför en ny konstruktion, kallad On-demand Time-decaying Bloom filter, som bygger på en kontinuerlig drift för att övervinna noggrannhet / prestanda begränsningar i den ursprungliga fönsterbaserade metoden. För det andra visar vi hur denna nya teknik kan utnyttjas i utformningen av högpresterande stream-baserade övervakningsprogram, genom att utveckla VoIPSTREAM, en proof-of-concept realtidsanalys version av ett tidigare föreslagna system för telemarketing samtalsdetektering. Våra valideringsresultat, utförda över verkliga telefoni data, visar hur VoIPSTREAM nära efterliknar funktionen extraktionsprocess och trafikanalys tekniker som genomförs i offline-systemet, med en betydligt högre bearbetningshastighet, och utan att kräva någon lagring av per-användare samtal detaljer poster.
Det utnyttjades av författarna i REF för tidsfördröjning Bloom filter.
3,501,748
On-demand time-decaying bloom filters for telemarketer detection
{'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,050
Detta dokument presenterar så gott vi vet den första end-to-end objekt spårning metod som direkt kartlägger från rå sensor ingång till objekt spår i sensor utrymme utan att kräva någon funktion teknik eller system identifiering i form av anläggning eller sensor modeller. Specifikt, vårt system accepterar en ström av rå sensor data i ena änden och, i realtid, producerar en uppskattning av hela miljön tillstånd vid utgången inklusive även ocluded objekt. Vi uppnår detta genom att sätta in problemet som en djupinlärning uppgift och utnyttja sekvensmodeller i form av återkommande neurala nätverk för att lära sig en kartläggning från sensormätningar till objektspår. I synnerhet föreslår vi en inlärningsmetod baserad på en form av input dropout som gör det möjligt att lära på ett oövervakat sätt, endast baserat på råa, ockluded sensordata utan tillgång till mark-sanningar. Vi demonstrerar vår strategi med hjälp av en syntetisk datauppsättning utformad för att härma uppgiften att spåra objekt i 2D-laserdata - som ofta förekommer i robottillämpningar - och visa att den lär sig att spåra många dynamiska objekt trots ocklusioner och närvaron av sensorbuller.
Ondurska m.fl. REF presenterade en end-to-end tillämpning av neurala nätverk för dynamisk objektspårning med laserdata.
10,892,139
Deep Tracking: Seeing Beyond Seeing Using Recurrent Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,051
ontext medvetenhet-bestämma en persons nuvarande plats och erkänna vad han eller hon gör-är en nyckelfunktion i många genomträngande datorapplikationer. Lokaliseringstekniker är baserade på antingen relativa eller absoluta positionsmätningar. 1 Mycket av den aktuella forskningen inom detta område, som beskrivs i "Relaterat arbete", använder absolut mätbaserade metoder (även kallade referensbaserade system). Men att använda både relativa och absoluta metoder, som robotik ofta gör, är oftast mer effektivt när det gäller kostnader och prestanda. Den grundläggande idén med den relativa mätningsmetoden är att integrera inkrementell rörelseinformation över tiden. Detta är känt som död räkning eller odometri. Vi började vårt projekt för att studera genomförbarheten av att tillämpa död-reckonering metod för att känna igen en persons plats i inomhusmiljöer. Vi fokuserade på att upptäcka gångbeteende, eftersom mänsklig rörelse uppnås främst via promenader. Om ett system kan känna igen gångbeteenden och räkna antalet steg, kan det uppskatta en persons nuvarande plats refererad på en känd startplats. Som ett första försök föreslog vi en kombinerad metod med en enkel aktiv fyr och död räkning som kunde spåra en persons plats kontinuerligt med rimlig noggrannhet. 2 Men det visade också ett inneboende problem med död räkning-att rubrikfel orsakar stora sidopositionsfel. För att undvika detta problem utvecklade vi en platsigenkänningsmetod baserad inte på en beskrivning av rörelse i 2D utrymme utan på verbala beskrivningar av vägsegment, såsom "gå rakt, sedan gå ner för trappan, och sväng höger." 3 Vi fick ett lovande resultat: 86,7 procent av den genomsnittliga igenkänningskvoten (antalet korrekt upptäckta övergångar dividerat med det totala antalet platsövergångar) för 12 övergångar mellan 6 platser i en kontorsmiljö. Metoden var dock begränsad i fallet med en lång väg, eftersom den bestämde övergångar baserade på ackumulerat antal steg i stället för en hel sekvens; således visade den platsen övergång innan personen nådde destinationen. Dessutom har den huvudsakliga felkällan sitt ursprung i att personens verksamhet har blivit felaktigt igenkänd. I den här artikeln föreslås en förbättrad metod för att ta itu med dessa begränsningar. Detta innebär att • Förbättra aktivitetsigenkänningen genom att lägga till olika typer av sensorer, hitta en optimal sensorposition på kroppen, eller både och. • Att hitta en lämplig deskriptor för den relativa förskjutningen av ämnet Grundidén med vårt nya tillvägagångssätt har inte förändrats: att upptäcka en platsövergång genom att integrera ämnets motoriska aktiviteter. Med hjälp av uppmätta accelerations- och vinkelhastighetsdata som samlats in genom billiga, bärbara sensorer, kan denna död-reckoneringsmetod bestämma en användares plats, upptäcka övergångar mellan förvalda platser, och känna igen och klassificera sittande, stående och gångbeteenden. Experiment visar den föreslagna metodens effektivitet.
Användarens plats och igenkänning av aktiviteter studerades av Lee & Mase REF.
8,874,307
Activity and location recognition using wearable sensors
{'venue': 'IEEE Pervasive Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,052
Även om IT-gemenskapen vida erkänner nyttan av domän ontologier, särskilt när det gäller den semantiska webben, 1,2 måste vi övervinna flera hinder innan de blir praktiska och användbara verktyg. Hittills har bara ett fåtal specifika forskningsmiljöer ontologier. "Vad är en ontologi?" sidebar på sidan 24 ger en definition och viss bakgrund.) Många i beräkningslingvistiken forskarvärlden använder WordNet, 3 men storskaliga IT-applikationer baserade på det kräver tung anpassning. Således är en kritisk fråga ontologi konstruktionidentifiera, definiera och skriva in begreppsdefinitioner. På stora, komplexa tillämpningsområden kan denna uppgift vara lång, kostsam och kontroversiell, eftersom människor kan ha olika åsikter om samma koncept. Två huvudsakliga strategier stöder storskaligt ontologibygge. Den första underlättar manuell ontologiteknik genom att tillhandahålla verktyg för bearbetning av naturligt språk, inklusive redaktörer, konsekventa kontroller, medlare för att stödja delade beslut och importverktyg för ontologi. Den andra metoden bygger på maskininlärning och automatiserad språkbehandlingsteknik för att extrahera begrepp och ontologiska relationer från strukturerade och ostrukturerade data såsom databaser och text. Få system utnyttjar båda tillvägagångssätten. Den första metoden dominerar i de flesta utvecklingsverktyg som Kaon, Protégé, Chimaera och WebOnto, men vissa system också implementerar maskininlärning tekniker. 1 Vårt OntoLearn system är en infrastruktur för automatiserad ontologi lärande från domän text. Det är det enda systemet, såvitt vi vet, som använder sig av naturliga språkbehandlings- och maskininlärningsmetoder, och som är en del av en mer allmän ontologiingenjörsarkitektur. 4,5 Här beskriver vi systemet och ett experiment där vi använde en maskinlärd turism ontologi för att automatiskt översätta flerordstermer från engelska till italienska. Metoden kan tillämpas på andra domäner utan manuell anpassning. Figur 1 visar arkitekturens element. Med hjälp av Ariosto språkprocessor, 6 OntoLearn extraherar terminologi från en corpus av domän text, såsom specialiserade webbplatser och lager eller dokument som utbyts bland medlemmar i en virtuell gemenskap. Det filtrerar sedan terminologin med hjälp av naturligt språk bearbetning och statistiska tekniker som utför jämförande analys över olika områden, eller kontrasterande corpora. Därefter använder vi WordNet och SemCor 3 lexiska kunskapsbaser för att semantiskt tolka termerna. Vi relaterar sedan begrepp enligt taxonomisk (typ av) och andra semantiska relationer, skapa en domän koncept skog. Vi använder WordNet och vår regelbaserade induktiva inlärningsmetod för att extrahera sådana relationer. Slutligen, OntoLearn integrerar domänbegreppet skog med WordNet för att skapa en beskärd och specialiserad syn på domän ontologi. Vi använder sedan ontologiredigering, validering och hanteringsverktyg 4,5
Ett exempel på regelbaserat ontologiskt lärande kan hittas i systemet OntoLearn Ref, som tar ut relevanta domäntermer från en textsamling, relaterar dem till lämpliga begrepp i ett allmänt syfte ontologi, och upptäcker taxonomiska och andra semantiska relationer mellan begreppen.
2,930,183
Ontology Learning and its Application to Automated Terminology Translation
{'venue': 'IEEE Intelligent Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,053
Sociala medier har fått stor uppmärksamhet eftersom deras öppna natur gör det möjligt för användare att skapa lätta semantiska ställningar för att organisera och dela innehåll. Hittills har samspelet mellan sociala och aktuella komponenter i sociala medier endast delvis undersökts. Här studerar vi förekomsten av homofili i tre system som kombinerar märkning av sociala medier med sociala nätverk på nätet. Vi finner en betydande grad av aktuell likhet bland användare som är nära varandra i det sociala nätverket. Vi inför en nullmodell som bevarar användaraktiviteten samtidigt som vi tar bort lokala korrelationer, vilket gör att vi kan skilja den faktiska lokala likheten mellan användare från statistiska effekter på grund av den varierande blandningen av användaraktivitet och centralitet i det sociala nätverket. Denna analys tyder på att användare med liknande intressen är mer benägna att vara vänner, och därför bör aktuella likhetsåtgärder mellan användare baserade enbart på deras annotationsmetadata förutsäga sociala länkar. Vi testar denna hypotes på flera dataset, som bekräftar att sociala nätverk konstruerade av aktuell likhet fångar verklig vänskap korrekt. I kombination med topologiska egenskaper uppnår aktuell likhet en länkprediktionsnoggrannhet på cirka 92 %.
Många studier visade att det finns betydande nivåer av aktuell likhet bland användare som är nära varandra i det sociala nätverket, såsom vänskapsförutsägelse i REF, som studerade förekomsten av homologi i tre system som kombinerar taggning sociala medier med online sociala nätverk.
12,761,051
Friendship prediction and homophily in social media
{'venue': 'TWEB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,054
Instrumentering program med kod för att övervaka runtime beteende är en vanlig teknik för profilering och felsökning. I praktiken är instrumentering antingen infogas manuellt av programmerare, eller automatiskt av specialiserade verktyg som övervakar särskilda egenskaper. Vi föreslår Program Trace Query Language (PTQL), ett språk baserat på relationella frågor över programspår, där programmerare kan skriva uttrycksfulla, deklarativa frågor om programbeteende. Vi beskriver även vår kompilator, PARTIQLE. Eftersom en PTQL fråga och ett Java-program, PARTIQLE instrument programmet för att köra frågan on-line. Vi tillämpar flera PTQL-frågor på en uppsättning referensprogram, inklusive Apache Tomcat Web-servern. Våra frågor avslöjar betydande prestanda buggar i jack SpecJVM98 riktmärke, i Tomcat, och i IBM Java klass bibliotek, liksom några korrekta men obekvämt subtil kod i Xerces XML parser. Vi presenterar prestandamätningar som visar att vårt prototypsystem har användbar prestanda.
Programmet Trace Query Language (PTQL) tillåter relationsförfrågningar över programspår med ett specifikt fokus på förhållandet mellan programhändelser REF.
1,357,218
Relational queries over program traces
{'venue': "OOPSLA '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,055
Scratchpad Memory (SPM), en programvara som styrs av chipminnet, har i stor utsträckning använts som ett alternativ till cache i moderna inbyggda system på grund av dess energieffektivitet. För att ytterligare minska energiförbrukningen har icke flyktigt minne (NVM) baserad hybrid SPM föreslagits nyligen. Detta dokument inriktar sig på problemet med att fördela programvariabler i hybrid SP M-baserade system. Både en lLP-formulering och en graffärgningsbaserad algoritm föreslås. Experimenten visar att det föreslagna graffärgsramverket uppnår både bättre minneslatens och lägre energikostnader jämfört med tidigare verk. Energiförbrukning är en avgörande fråga för utformningen av inbyggda system. On-chip caches förbrukar vanligtvis 25% till 45% av den totala chip effekt [15]. Scratchpad Memory (SPM), ett programvarustyrt on-chip minne, är ofta aply plied för energieffektivitet i inbyggda system. Arbetet av Banakar et al. [4] visar att SPM är mer effektiva än cache i prestanda, energiförbrukning och arealkostnader. Programvaruteknik för SPMs garanterar också bättre timing förutsägbarhet än ett cacheminne, vilket är kritiskt i hårda realtidssystem. Mot bakgrund av dessa fördelar används SPM som alternativ till cache i modem bäddade ded-processorer som Motorola M-core MMC22 1 och TI TMS370Cx7x. I detta dokument föreslås tekniker för fördelning av programvariabler på hybrida SPMs. Traditionella SPMs tillverkas i ren SRAM. I takt med att antalet CMOS-transistorer ökar blir elförbrukningen för läckage en kritisk fråga. Icke-flyktiga minnen (NVM), med inslag av låg läckage effekt och hög densitet, presentera ett nytt sätt att ta itu med problemet minne läcka ålder strömförbrukning. Men skrivoperationerna på NVM lider av betydligt högre energi och längre latens. Nyligen föreslås hybrida SPMs bestående av SRAM och NVM [8] och smarta minneshanteringstekniker behövs när NVM tillämpas. Mycket arbete har gjorts för SPM-tilldelningen. Avis sar m.fl. härleda en statisk fördelningsmetod, där tilldelningen av data till SPM är fast och oförändrad genom programgenomförandet [3]. Med antagandet att räckvidden för varje dataobjekt är genom hela pro gram exekvering, de modellerar problemet som en Integer Lin öronprogrammering (ILP) problem, och lösa det med hjälp av commercial paket. Med tanke på dynamiskt programbeteende, Udayakumaran et al. presentera en dynamisk fördelningsmetod för globala data och stackdata [17]. Hu m.fl. föreslå en ny SPM-arkitektur bestående av NVM och SRAM, och presentera en dynamisk fördelningsmetod, där koden delas upp i flera regioner, och för varje region används en digital programmeringsalgoritm för att omfördela data [8]. Deras lösning förutsätter att räckvidden för varje dataobjekt är genom hela programmet exekvering, så kan inte utforska möjligheten att dataobjekt med delade live-områden kan dela samma minnesadresser i SPM. Li et als arbete. beaktar live-intervall av variabler, och kan fördela matriser med icke-överlappade live-intervall till samma minnesadress [13]. Det finns ett underförstått antagande i deras lösning att kostnaden för tillgång till en minnesenhet alltid är bättre än en annan minnesenhet. Detta antagande är rimligt för problemet med registertilldelning, där registret alltid är överlägset huvudminnet, och för ren SRAM-baserad SPM, där SPM alltid är överlägsen off-
REF använder en graffärgningsmetod för att fördela en hybrid SPM som innehåller både en SRAM-region och en icke-flyktig STT-RAM-region.
14,030,934
MGC: Multiple graph-coloring for non-volatile memory based hybrid Scratchpad Memory
{'venue': '2012 16th Workshop on Interaction between Compilers and Computer Architectures (INTERACT)', 'journal': '2012 16th Workshop on Interaction between Compilers and Computer Architectures (INTERACT)', 'mag_field_of_study': ['Computer Science']}
7,056
Sammanfattning av denna webbsida: Ett obemannade luftfartyg (UAV) måste på ett säkert sätt kunna nå sin destination även när det endast kan samla begränsad information om sin omgivning. När ett hinder upptäcks måste UAV kunna välja en väg som förhindrar kollision med hindret. För kollisionsundvikande systemet tillämpar vi hastighetshindermetoden eftersom den är tillämplig även med UAV:s begränsade avkänningsförmåga. För att kunna tillämpa hastighetshinderinflygningen behöver vi känna till parametervärdena för hindret såsom dess storlek, strömhastighet och aktuella läge. På grund av UAV:s begränsade avkänningsförmåga är sådan information om hindret emellertid inte tillgänglig. Således, genom att utvärdera sensoravläsningar, får vi förändringar i de möjliga positionerna av hindret för att generera hastighetshinder och göra UAV välja en kollisionsfri bana mot destinationen. Vi utförde simuleringar på olika hinderrörelser och UAV:s kollisionsfria bana visas i simuleringsresultaten.
En lösning för 3D kollision undvikande på en låg kostnad UAV med hjälp av hastighet hinder metod presenterades i REF.
31,837,612
Velocity Obstacle Based 3D Collision Avoidance Scheme for Low-Cost Micro UAVs
{'venue': None, 'journal': 'Sustainability', 'mag_field_of_study': ['Economics']}
7,057
I detta dokument presenterar vi rapporten och resultaten av den gemensamma uppgiften om Aggression Identification som anordnades som en del av den första workshopen om trolling, Aggression och cybermobbning (TRAC -1) vid COLING 2018. Uppgiften var att utveckla en klassificerare som kunde diskriminera mellan overtly Aggressive, covert Aggressive, och icke-aggressiva texter. För denna uppgift, deltagarna fick en datauppsättning på 15,000 aggression-annoterade Facebook Posts och Kommentarer var i Hindi (i både Roman och Devanagari manus) och engelska för utbildning och validering. För testning, två olika uppsättningar - en från Facebook och en från en annan sociala medier - tillhandahölls. Totalt 130 lag registrerade sig för att delta i uppgiften, 30 lag lämnade in sina testkörningar, och slutligen 20 lag skickade också sina systembeskrivning papper som ingår i TRAC workshop förfarande. Det bästa systemet fick en viktad F-poäng på 0,64 för både hindi och engelska på Facebook testuppsättningar, medan de bästa poäng på överraskningsuppsättningen var 0,60 och 0,50 för engelska respektive hindi. De resultat som presenteras i denna rapport visar hur utmanande uppgiften är. Det positiva gensvaret från samhället och det stora deltagandet i den första upplagan av denna gemensamma uppgift belyser också intresset för detta ämne.
REF fokuserade på den gemensamma uppgiften att identifiera aggression mot Hindi-texten.
59,336,626
Benchmarking Aggression Identification in Social Media.
{'venue': 'TRAC@COLING 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,058
Vi presenterar en ny läsförståelse dataset, SQuAD, bestående av 100.000 + frågor från crowdworkers på en uppsättning Wikipedia artiklar, där svaret på varje fråga är ett segment av text från motsvarande läsavsnitt. Vi analyserar datasetet på både manuella och automatiska sätt för att förstå de typer av resonemang som krävs för att svara på frågorna, lutar kraftigt på beroende och valkretsträd. Vi byggde en stark logistisk regressionsmodell, som uppnår en F1-poäng på 51,0 %, en betydande förbättring jämfört med en enkel baslinje (20 %). Människans prestationsförmåga (86,8 %) är dock mycket högre, vilket tyder på att datasetet utgör ett bra problem för framtida forskning.
REF presenterade en stor datauppsättning för läsförståelse genom att svara på frågor över Wikipedia artiklar (SQuAD).
11,816,014
SQuAD: 100,000+ Questions for Machine Comprehension of Text
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,059
Abstract-A newly approach, COPE [10], för att förbättra genomströmningen av unicast-trafik i trådlösa multi-hop-nät utnyttjar sändningskaraktären hos det trådlösa mediet genom opportunistisk nätkodning. I denna uppsats analyserar vi genomströmningsförbättringar som erhålls genom COPE-type-nätverkskodning i trådlösa nätverk ur ett teoretiskt perspektiv. Vi gör två viktiga bidrag. Först får vi en teoretisk formulering för att beräkna genomströmningen av nätverkskodning på alla trådlösa nätverk topologi och alla mönster av samtidiga unicast trafik sessioner. För det andra förespråkar vi att routing ska göras medveten om nätkodningsmöjligheter snarare än att, som i COPE, vara omedveten om det. Ännu viktigare, vårt arbete studerar avvägningen mellan routing flöden "nära varandra" för att utnyttja kodningsmöjligheter och "bort från varandra" för att undvika trådlös interferens. Vår teoretiska formulering ger en metod för att beräkna källdestinationsrutter och utnyttja de bästa kodningsmöjligheterna från de tillgängliga för att maximera genomströmningen. Vi hanterar schemaläggning av sändningssändningar som är föremål för trådlös överföring/mottagande mångfald och länkinterferens i vårt optimeringsramverk. Med hjälp av våra formuleringar, jämför vi prestandan hos traditionella unicast routing och nätverk kodning med kodning-oblivious och kodning-medveten routing på en mängd olika mesh nätverk topologier, inklusive några som härrör från samtida mesh nätverk testbäddar. Våra utvärderingar visar att en strategi för val av rutt som är medveten om nätkodningsmöjligheter leder till högre end-to-end dataflöde jämfört med kodning-oblivious routing strategier.
Sengupta m.fl. REF presenterade en analys av de genomströmningsförbättringar som erhållits genom COPE-type-nätverkskodning i ett optimeringsramverk, samtidigt som de också förespråkade en code-aware routing och genomförde genomströmningsanalysen om det.
3,056,111
An Analysis of Wireless Network Coding for Unicast Sessions: The Case for Coding-Aware Routing
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
7,060
Abstract-Channel variabilitet och en hög bullernivå leder till en betydande sannolikhet för paketförlust i många undervattensnätverk. Tekniker baserade på felkorrigering på paketnivå framåt (FEC), såsom koder för Reed Solomon (RS), kan användas för att erbjuda effektivt skydd mot alltför stora paketförluster som skulle genereras av buller. I detta dokument föreslår vi ett nytt system för att återvinna fel på grundval av RS-koder som ska användas i samband med multipatrouting. Vi diskuterar flera routing policys för att dra nytta av den inneboende redundansen av multipat routing tillsammans med en lämplig RS-kod. Vi utvärderar resultatet av dessa policyer genom simulering och jämför dem med Multi-Sink Routing Protocol (MSRP). Resultaten visar att våra policyer överträffar MSRP när det gäller paketleveransförhållande (PDR), och att vår lösning skapar en balans mellan den uppnådda PDR och de overhead som införs genom paketreplikering.
I protokollet föreslås ett system för återvinning av fel baserat på koder för Reed Solomon (RS) och multipath routing.
12,224,494
Packet error recovery via multipath routing and Reed-Solomon codes in underwater networks
{'venue': '2012 Oceans', 'journal': '2012 Oceans', 'mag_field_of_study': ['Computer Science']}
7,061
Smarta städer använder olika utplacerade sensorer och aggregerar sina data för att skapa en stor bild av stadens levande tillstånd. Denna levande stat kan förbättras genom att införliva medborgarnas affektiva stater. I detta arbete upptäcker vi automatiskt känslorna hos stadens invånare från geo-taggade inlägg på det sociala nätverket Twitter. Känslor representeras som fyradimensionella vektorer av njutning, upphetsning, dominans och oförutsägbarhet. I en träningsfas används känsloordshashtaggar i budskapen som den grundläggande sanningskänslan som finns i ett budskap. Ett neuralt nätverk tränas genom att använda närvaron av ord, hashtaggar och smilisar i meddelandena som funktioner. Under livefasen, dessa funktioner extraheras från nya geo-taggade Twitter-meddelanden och ges som ingång till det neurala nätverket. Detta gör det möjligt att uppskatta en fyradimensionell känslovektor för ett nytt meddelande. De upptäckta känslorna är aggregerade över rum och tid och visualiserade på en karta över staden.
Andra senaste arbeten tilldelade fyra dimensioner, baserat på Fontaine modellen (pleasantness, upphetsning, dominans och oförutsägbarhet), till 24 känslor hashtags och skapade en dataset med 58.000 tweets REF.
6,517,230
Detection and Visualization of Emotions in an Affect-Aware City
{'venue': "EMASC '14", 'journal': None, 'mag_field_of_study': ['Psychology', 'Computer Science']}
7,062
Vi använde konvolutionella neurala nätverk (CNN) för automatisk vilostegsscoring baserad på enkanalselektroencefalografi (EEG) för att lära sig uppgiftsspecifika filter för klassificering utan att använda tidigare domänkunskap. Vi använde ett öppet tillgängligt dataset från 20 friska unga vuxna för utvärdering och tillämpade 20-faldig korsvalidering. Vi använde klassbalanserad slumpmässig provtagning inom stokastisk lutning nedstigning (SGD) optimering av CNN för att undvika skev prestanda till förmån för de mest representerade sömnstadier. Vi uppnådde hög genomsnittlig F1-poäng (81%, intervall 79-83%), genomsnittlig noggrannhet över individuella sömnstadier (82%, intervall 80-84%) och total noggrannhet (74%, intervall 71-76%) för alla individer. Genom att analysera och visualisera de filter som vår CNN lär oss, fann vi att regler som lärts av filtren motsvarar sömscoring kriterier i American Academy of Sleep Medicine (AASM) handbok som mänskliga experter följer. Vår metods prestanda är balanserad mellan olika klasser och våra resultat är jämförbara med toppmoderna metoder med handgjorda funktioner. Vi visar att utan att använda tidigare domänkunskap kan ett CNN automatiskt lära sig att skilja mellan olika normala sömnstadier.
Istället för att extrahera funktioner baserade på domän kunskap, funktioner i REF automatiskt läras av de konvolutionella neurala nätverk (CNN).
11,607,380
Automatic Sleep Stage Scoring with Single-Channel EEG Using Convolutional Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,063
Vi föreslår ett typsystem för låsfrihet i π-kalculus, som garanterar att vissa kommunikationer så småningom kommer att lyckas. Särskiljande funktioner hos vårt typsystem är: det kan verifiera låsfrihet för samtidiga program som har sofistikerade rekursiva kommunikationsstrukturer; det kan vara helt automatiserad; det är hybrid, genom att det kombinerar ett typsystem för låsfrihet med lokala resonemang om dödlägesfrihet, uppsägning och konfluensanalyser. Dessutom är typsystemet parameteriserat med dödlägesfrihet/avslutande/konfluensanalyser, så att alla metoder (t.ex. Typsystem och modellkontroll) kan användas för dessa analyser. Ett verktyg för låsfrihetsanalys har implementerats baserat på det föreslagna typsystemet och testats för icke-triviala program.
Kobayashi och Sangiorgi REF föreslår ett typsystem som bevisar låsfrihet för program skrivna i π-kalculus.
1,612,616
A hybrid type system for lock-freedom of mobile processes
{'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,064
Massmailing maskar har gjort en betydande inverkan på Internet. Dessa maskar förbrukar värdefulla nätverksresurser och kan också användas som ett fordon för DDoS attacker. I denna uppsats analyserar vi spår av nätverkstrafik som samlats in från ett universitetsområde och presenterar en fördjupad studie om effekterna av två masspostmaskar, SoBig och MyDoom, på utgående trafik. I stället för att föreslå en försvarsstrategi fokuserar vi på att studera dessa maskars grundläggande beteende och egenskaper. Denna analys ger insikt i möjligheterna och utmaningarna med att automatiskt upptäcka, undertrycka och stoppa massutbredning av maskar i en företagsnätverksmiljö.
Wong m.fl. REF genomförde en empirisk studie om mas-mailing mask beteende med hjälp av nätverk trafik spår från ett college campus.
235,287
A study of mass-mailing worms
{'venue': "WORM '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,065
Abstrakt. Den naturliga livsmiljön för de flesta Bayesian metoder är data som representeras av utbytbara sekvenser av observationer, för vilka de Finettis teorem utgör den teoretiska grunden. Dirichlet process clustring, Gaussian process regression, och många andra parametriska och icke-parametriska Bayesian modeller omfattas av detta ramverk; många problem som uppstår i modern dataanalys inte. Detta expositionspapper ger en introduktion till Bayesianska modeller av grafer, matriser och andra data som kan modelleras med slumpmässiga strukturer. Vi beskriver resultat i sannolikhetsteori som generaliserar de Finettis teorem till sådana data och diskuterar relevansen av dessa resultat för icke-parametrisk Bayesian modellering. Med de grundläggande idéerna på plats kartlägger vi exempelmodeller som finns i litteraturen; tillämpningar av sådana modeller inkluderar samarbetsfiltrering, länkförutsägelse samt graf- och nätverksanalys. Vi lyfter också fram kopplingar till den senaste utvecklingen inom grafteori och sannolikhet, och skisserar den mer allmänna matematiska grunden för Bayesian metoder för andra typer av data bortom sekvenser och matriser.
Diagramgränser har tillämpningar i sannolikhets- och dataanalys REF.
566,759
Bayesian Models of Graphs, Arrays and Other Exchangeable Random Structures
{'venue': 'IEEE Transactions Pattern Analysis and Machine Intelligence 2015, Vol. 37, No. 2, pp. 437-461', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
7,066
Fråga om sambearbetning av grafikprocessorer (GPU) har blivit ett effektivt sätt att förbättra prestandan hos de viktigaste minnesdatabaserna. Denna sambearbetning kräver dock dataöverföring mellan huvudminnet och GPU-minnet via en PCI-E-buss med låg bandbredd. Omkretsen av sådan dataöverföring blir en viktig faktor, även en flaskhals, för att fråga co-processing prestanda på GPU. I detta dokument föreslår vi att man använder komprimering för att lindra detta prestandaproblem. Speciellt, vi genomför nio lätta kompressionssystem på GPU och ytterligare studera kombinationer av dessa system för ett bättre kompressionsförhållande. Vi designar en komprimeringsplanerare för att hitta den optimala kombinationen. Våra experiment visar att GPU-baserad kompression och dekompression uppnådde en processhastighet på upp till 45 respektive 56 GB/s. Med hjälp av partiell dekompression, kunde vi avsevärt förbättra GPU-baserade fråge co-processing prestanda. Som en sidoprodukt har vi integrerat vår GPU-baserade komprimering i MonetDB, en öppen källkod kolumnorienterad DBMS, och visat genomförbarheten av att avlasta komprimering och dekompression till GPU.
Undersöka användningen av GPU-baserade kompressionssystem för att minimera dataöverföringen och förbättra bearbetningsprestandan för in-minnesdatabaser.
10,610,546
Database Compression on Graphics Processors
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
7,067
Det kapacierade K-center problemet är en grundläggande anläggning plats problem, där vi uppmanas att lokalisera K anläggningar i en graf, och tilldela hörn till anläggningar, för att minimera det maximala avståndet från en vertex till den anläggning som den tilldelas. Dessutom kan varje anläggning tilldelas högst L hörn. Detta problem är känt för att vara NP-hård. Vi ger polynom tid approximation algoritmer för två olika versioner av detta problem som uppnår approximationsfaktorerna 5 och 6. Vi studerar också några generaliseringar av detta problem.
Den kapacierade k-center problemet har en 6- approximation REF.
12,727,857
The Capacitated K-Center Problem
{'venue': 'In Proceedings of the 4th Annual European Symposium on Algorithms, Lecture Notes in Computer Science 1136', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,068
Abstract-Agent-baserade cloud computing handlar om design och utveckling av mjukvaruagenter för att stärka molntjänst upptäckt, tjänsteförhandling och tjänstesammansättning. Betydelsen av detta arbete är att införa ett agentbaserat paradigm för att konstruera programvaruverktyg och testbäddar för hantering av molnresurser. De nya bidragen från detta arbete inkluderar: 1) utveckla Cloudle: en agent-baserad sökmotor för molntjänst upptäckt, 2) visar att agent-baserade förhandlingsmekanismer kan användas effektivt för att stärka cloud service förhandling och cloud handel, och 3) visar att agent-baserade kooperativ problemlösning tekniker kan användas effektivt för att automatisera molntjänster komposition. Cloudle består av 1) en tjänst upptäckt agent som konsulterar en moln ontologi för att fastställa likheterna mellan leverantörernas tjänstespecifikationer och konsumenternas tjänstekrav, och 2) flera moln crawlers för att bygga sin databas av tjänster. Cloudle stöder tre typer av resonemang: likhet resonemang, kompatibilitet resonemang, och numeriskt resonemang. För att stödja cloud-handel utformade detta arbete en komplex mekanism för cloud-förhandling som stöder parallella förhandlingsaktiviteter på sammankopplade marknader: en cloud-tjänstemarknad mellan konsumentagenter och mäklare, och flera cloud-resursmarknader mellan mäklare och leverantörsagenter. Empiriska resultat visar att med hjälp av den komplexa moln förhandling mekanism, agenter uppnått höga verktyg och hög framgång i förhandlingarna om molnresurser. För att automatisera molntjänstsammansättning, agenter i detta arbete anta ett fokuserat urval kontrakt nettoprotokoll (FSCNP) för dynamiskt välja molntjänster och använda tjänstekapacitet tabeller (SCTs) för att registrera listan över molnagenter och deras tjänster. Empiriska resultat visar att med hjälp av FSCNP och SCT kan agenter framgångsrikt komponera molntjänster genom att självständigt välja tjänster.
Kwang m.fl. dra nytta av semantiska kunskaper och föreslog tre typer av resonemang för att söka tjänster som motsvarar konsumenternas funktionella och tekniska krav, inklusive likhet resonemang, kompatibilitet resonemang, och numeriska resonemang REF.
2,386,168
Agent-Based Cloud Computing
{'venue': 'IEEE Transactions on Services Computing', 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']}
7,070
Word clustering är viktigt för automatisk tesaurus konstruktion, textklassificering, och ord sense disambiguation. Nyligen har flera studier rapporterat med hjälp av webben som en corpus. I detta dokument föreslås en oövervakad algoritm för ordkluster baserat på ett ordlikviditetsmått per webbräkning. Varje par av ord är fråga till en sökmotor, som producerar en co-occurrence matris. Genom att beräkna likheten av ord, ett ord kooccurrence graf erhålls. En ny typ av grafklustringsalgoritm som kallas Newman klustring används för att effektivt identifiera ordkluster. Utvärderingar görs på två uppsättningar av ordgrupper som härrör från en webbkatalog och WordNet.
Yutaka Matsuo Ref föreslog en oövervakad algoritm för ordklustring baserad på ett ordlikviditetsmått efter webbräkning.
12,951,931
Graph-Based Word Clustering Using A Web Search Engine
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,071
En metod för att hantera den statistiska ineffektiviteten i neurala nätverk är att förlita sig på extra förluster som hjälper till att bygga användbara representationer. Men det är inte alltid trivialt att veta om en extra uppgift kommer att vara till hjälp för huvuduppgiften och när det kan börja göra ont. Vi föreslår att använda cosinus likhet mellan gradienter av uppgifter som en adaptiv vikt för att upptäcka när en extra förlust är till hjälp för huvudförlusten. Vi visar att vår strategi är garanterad att konvergera till kritiska punkter av huvuduppgiften och visa den praktiska nyttan av den föreslagna algoritmen på några områden: multi-task övervakad lärande om undergrupper av ImageNet, förstärkning lärande på gridworld, och förstärkning lärande på Atari spel.
Tidigare arbete har också använt cosinus likhet mellan gradienter för att definiera när en extra uppgift kan vara användbar för singel-task lärande REF.
53,579,309
Adapting Auxiliary Losses Using Gradient Similarity
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,072
Även om Internettrafiken i ett stort område har studerats i många år, är egenskaperna hos trafiken inom Internetföretag fortfarande nästan helt outforskade. Nästan alla studier av företagstrafik som finns i litteraturen är över ett decennium gamla och fokuserar på enskilda LAN snarare än hela webbplatser. I detta dokument presenterar vi en bred översikt över den interna företagstrafiken på en medelstor plats. Paketet spår sträcker sig över mer än 100 timmar, över vilken aktivitet från totalt flera tusen interna värdar visas. Denna rikedom av data-som vi offentligt släpper i anonymiserad form-spanner ett brett spektrum av dimensioner. Även om vi inte kan dra allmänna slutsatser med hjälp av data från en enda plats, och det är uppenbart att denna typ av data förtjänar ytterligare fördjupade studier på ett antal sätt, i detta arbete strävar vi efter att karakterisera ett antal av de mest framträdande aspekterna av trafiken. Vårt mål är att ge en första känsla av hur den moderna företagstrafiken liknar den breda Internettrafiken och hur den är helt annorlunda.
Ruoming REF ger en bred översikt över den interna företagstrafik som registrerats på en medelstor webbplats baserad på paketspår som beskriver vissa egenskaper hos traditionella tillämpningar som HTTP, E-post, DNS och andra företagsbaserade applikationer. Men trafiken skiljer sig mycket åt mellan olika företag.
7,765,411
A first look at modern enterprise traffic
{'venue': "IMC '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,073
Abstract-Genetiska algoritmer har visat sig vara en väl lämpad teknik för att lösa utvalda kombinatoriska optimeringsproblem. När man löser verkliga problem är det ofta huvuduppgiften att hitta en lämplig representation för kandidatlösningarna. Strängar av elementära datatyper med standardgenetiska operatörer kan tendera att skapa ogenomförbara individer under sökningen på grund av det diskreta och ofta begränsade sökutrymmet. I denna artikel införs en allmänt tillämplig representation för tvådimensionell kombinatorisk placering och förpackningsproblem. Empiriska resultat presenteras för två begränsade placeringsproblem, problem med anläggningslayouten och uppkomsten av mycket storskaliga integrerade (VLSI) makrocelllayouter. För multiobjektiva optimeringsproblem hanterar gemensamma strategier ofta de olika målen i olika faser och kan därför inte på ett effektivt sätt lösa det globala problemet. På grund av en trädstrukturerad genotyprepresentation och hybrid, problemspecifika operatörer, kan det föreslagna tillvägagångssättet hantera olika begränsningar och mål i ett optimeringssteg.
Hybrid genetiska algoritmer för rektangulär förpackning problem presenterades av Schnecke och Vornberger REF.
9,687,756
Hybrid Genetic Algorithms for Constrained Placement Problems
{'venue': 'IEEE Trans. Evolutionary Computation', 'journal': 'IEEE Trans. Evolutionary Computation', 'mag_field_of_study': ['Computer Science']}
7,074
Detta intervall används sedan för att matcha liknande dolda tillståndsmönster som visas i Match View (b). Urvalet görs genom att ange en start-stopp-intervall i texten (c) och en aktiveringströskel (t) som leder till ett urval av dolda tillstånd (blå linjer). Start-stopp-området kan ytterligare begränsas med hjälp av mönsterplotten (d). Metaspåren nedan visar extra information per ordposition som POS (e1) eller de översta K-prognoserna (e2). Verktyget kan sedan matcha detta val med liknande dolda tillståndsmönster i datamängden med varierande längder (f), vilket ger inblick i de representationer som modellen lärt sig. Matchvyn innehåller dessutom användardefinierade metadata kodade som värmekartor (g1,g2). Färgen på en värmekarta (g2) kan kartläggas (h) till ordet matris (f) som gör att användaren kan se mönster som leder till ytterligare förfining av urvalet hypotes. Navigationshjälpmedel ger bekvämlighet (i1, i2). Abstract-Recurrent neurala nätverk, och i synnerhet långa korttidsminne (LSTM) nätverk, är ett anmärkningsvärt effektivt verktyg för sekvensmodellering som lär sig en tät svart-box dold representation av deras sekventiella ingång. Forskare som är intresserade av att bättre förstå dessa modeller har studerat förändringarna i dolda tillstånd representationer över tid och lagt märke till vissa tolkningsbara mönster men också betydande buller. I detta arbete presenterar vi LSTMVIS, ett visuellt analysverktyg för återkommande neurala nätverk med fokus på att förstå dessa dolda tillståndsdynamik. Verktyget gör det möjligt för användare att välja en hypotes indataintervall för att fokusera på lokala tillstånd förändringar, att matcha dessa tillstånd förändringar till liknande mönster i en stor datauppsättning, och att anpassa dessa resultat med strukturella kommentarer från deras domän. Vi visar flera användningsfall av verktyget för att analysera specifika dolda tillstånd egenskaper på dataset som innehåller häckning, frasstruktur, och ackord progressioner, och visar hur verktyget kan användas för att isolera mönster för ytterligare statistisk analys. Vi karakteriserar domänen, de olika intressenterna och deras mål och uppgifter. Långsiktiga användningsdata efter att ha satt verktyget online visade stort intresse för maskininlärning gemenskapen.
De dolda tillståndsegenskaperna hos LSTM visualiseras och undersöks i LSTMvis visualiseringssystem REF.
25,127,323
LSTMVis: A Tool for Visual Analysis of Hidden State Dynamics in Recurrent Neural Networks
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,075
Nyligen har det skett en enorm ökning av mobil dataanvändning med den utbredda spridningen av smartphone-liknande enheter. Denna ökade efterfrågan från användarna har dock lett till en kraftig överbelastning av trafiken i de cellulära näten. Avlastning av trafiken genom flera andra enheter (femtoceller, Wi-Fi-anslutningspunkter) har ansetts vara en omedelbar lösning på ett sådant problem. I detta dokument studerar vi därför införandet av Wi-Fi-anslutningspunkter (AP) i ett storstadsområde för effektiv avlastning av mobil datatrafik. Vi analyserar en storskalig verklig användarrörlighet spår och föreslår en distributionsalgoritm baserad på densiteten hos användarens data begäran frekvens. I simuleringar presenterar vi avlastningsförhållande som vår algoritm kan åstadkomma med olika antal AP. Resultaten visar att vår algoritm kan uppnå ett nästan optimalt avlastningsförhållande som är högre än avlastningsförhållanden som befintliga algoritmer kan uppnå med samma antal AP.
Bulut m.fl. REF jämförde olika metoder för att distribuera WiFi AP för effektiv avlastning av mobil datatrafik.
5,635,417
WiFi access point deployment for efficient mobile data offloading
{'venue': "PINGEN '12", 'journal': None, 'mag_field_of_study': ['Engineering']}
7,076
Vi anser opportunistiska kommunikationer över flera kanaler där tillståndet ("bra" eller "dåliga") av varje kanal utvecklas som oberoende och identiskt distribuerade Markov processer. En användare, med begränsad avkänning och åtkomstförmåga, väljer en kanal till avkänning och därefter tillgång (baserat på det avkännda kanaltillståndet) i varje tidslucka. En belöning erhålls när användaren känner och får tillgång till en "bra" kanal. Målet är att utforma den optimala kanalvalspolicyn som maximerar den förväntade belöningen över tid. Detta problem kan i allmänhet formuleras som en partiellt observerbar Markovbeslutsprocess (POMDP) eller en rastlös multiarmad banditprocess, där optimala lösningar ofta är oåtkomliga. Vi visar i detta dokument att den myopiska politiken, med en enkel och robust struktur, uppnår optimalitet under vissa förhållanden. Detta resultat finner applikationer i opportunistisk kommunikation i bleknande miljö, kognitiva radionät för spektrumöverlagring, och resursbegränsad störning och anti-jamming. Index Terms-Opportunistic access, kognitiv radio, POMDP, rastlös multi-armad bandit process, myopic policy.
För mer än två kanaler visades optimaliteten i den myopiska politiken i REF under vissa förhållanden på kanalparametrar.
111,292
Optimality of Myopic Sensing in Multi-Channel Opportunistic Access
{'venue': '2008 IEEE International Conference on Communications', 'journal': '2008 IEEE International Conference on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,077
Abstract-Snarare än att sträva efter att vara "fullständigt smidig", vissa organisationer vill vara mer smidig än deras konkurrens och / eller branschen. Utvärderingsverktyget Comparative AgilityTM (CA) kan användas för att hjälpa organisationer att fastställa deras relativa agilitet jämfört med andra team som svarade på CA. Resultaten av CA kan användas av ett team för att vägleda processförbättringar i samband med användning av smidiga metoder för mjukvaruutveckling. I detta dokument ges en översikt över industrins agilitetstrender på grundval av 1 235 svarande inom en rad olika områden och geografiska områden. Dessutom går papperet djupare på resultaten från fyra industriteam som svarade på CA, förklara varför deras resultat var relativt höga eller låga baserat på erfarenheter med lagen. I dokumentet diskuteras också de resulterande reaktionerna på och planerna för förbättring av processen för dessa grupper efter en översyn av deras resultat.
Williams m.fl. Ref publicerade en översikt över industrins agilitetstrender baserat på 1.235 respondenter till den ursprungliga 125-uttalande CA.
8,268,915
Driving Process Improvement via Comparative Agility Assessment
{'venue': '2010 Agile Conference', 'journal': '2010 Agile Conference', 'mag_field_of_study': ['Computer Science']}
7,078
Ny forskning tyder på att arkitektonisk kunskap, såsom designbeslut, är viktig och bör registreras vid sidan av arkitekturbeskrivningen. Olika metoder har utvecklats för att stödja sådan arkitektkunskap (AK) förvaltningsverksamhet. Det finns dock olika uppfattningar om och betoning på vad och hur arkitektonisk verksamhet bör stödjas. Detta återspeglas i utformningen och genomförandet av befintliga AK-verktyg. För att förstå den aktuella statusen för programvaruarkitekturens kunskapsutveckling och framtida forskningstrender jämför detta dokument fem arkitektoniska kunskapshanteringsverktyg och det stöd de ger i arkitekturens livscykel. Jämförelsen grundar sig på en utvärderingsram som fastställs genom en uppsättning av tio kriterier. Resultaten av jämförelsen ger insikter i det aktuella fokuset på arkitektoniskt kunskapshanteringsstöd, dess fördelar, brister och överensstämmelse med den nuvarande arkitektoniska beskrivningens standard. Baserat på resultatet av denna jämförelse föreslås en forskningsagenda för framtida arbete med AK-verktyg.
En studie som jämförde fem arkitektoniska kunskapsverktyg (AK) leddes av Tang et al. Hoppa över det.
7,987,944
A comparative study of architecture knowledge management tools q
{'venue': 'J. Syst. Softw.', 'journal': 'J. Syst. Softw.', 'mag_field_of_study': ['Computer Science']}
7,080
Abstract-We present Relational Hoare Type Theory (RHTT), ett nytt språk- och verifieringssystem som kan uttrycka och verifiera rikt informationsflöde och åtkomststyrningspolicyer via beroende typer. Vi visar att ett antal säkerhetspolicyer som har formaliserats separat i litteraturen alla kan uttryckas i RHTT med enbart standard typ-teoretiska konstruktioner såsom monader, högre ordning funktioner, abstrakta typer, abstrakta predikat, och moduler. Exempel på säkerhetsprinciper är villkorlig avklassificering, radering av information samt statligt beroende informationsflöde och åtkomstkontroll. RHTT kan resonera om sådana policys i närvaro av dynamisk minnesallokering, deallocation, pekar aliasing och aritmetisk. Systemet, teorem och exempel har alla formaliserats i Coq.
Nanevskis m.fl. REF föreslår relativ Hoare Type Theory, som gör det möjligt att uttrycka informationsflöde politik inklusive avklassificering som diskuteras i detta dokument (och andra säkerhetsegenskaper) med hjälp av beroende typer.
1,289,249
Verification of Information Flow and Access Control Policies with Dependent Types
{'venue': '2011 IEEE Symposium on Security and Privacy', 'journal': '2011 IEEE Symposium on Security and Privacy', 'mag_field_of_study': ['Computer Science']}
7,081
Abstrakt. Objektigenkänning kan formuleras som matchande bildfunktioner till modellfunktioner. När igenkänning är exemplar-baserad, funktionen korrespondens är en-till-ett. Men segmenteringsfel, artikulation, skala skillnad, och inom-klass deformation kan ge bild och modellfunktioner som inte matchar en-till-ett men ganska många-tomany. Genom att anta en graf-baserad representation av en uppsättning funktioner, presenterar vi en matchande algoritm som etablerar många-till-många korrespondenser mellan noderna av två bullriga, vertex-märkta viktade grafer. Vårt tillvägagångssätt minskar problemet med många-till-många matchning av viktade grafer till problemet med många-till-många matchning av viktade punktuppsättningar i ett normerat vektorutrymme. Detta åstadkoms genom att inbädda de första viktade graferna i ett normerat vektorutrymme med låg distorsion med hjälp av en ny inbäddningsteknik baserad på en sfärisk kodning av grafstrukturen. Många-till-många vektorkorrespondenser etablerade av Earth Movers distansramverk är kartlagda tillbaka i många-till-många korrespondenser mellan grafnoder. Empirisk utvärdering av algoritmen på en omfattande uppsättning igenkänningsförsök, inklusive en jämförelse med två konkurrerande grafmatchningsmetoder, visar både robustheten och effektiviteten i den övergripande metoden.
Demirci m.fl. REF föreslog en korrekt matchningsalgoritm genom att konstruera en metrisk trädrepresentation av de två viktade graferna, som kan etablera många-till-många korrespondenser mellan noderna på två bullriga objekt.
11,881,400
Object Recognition as Many-to-Many Feature Matching
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
7,082
Sammanfattning av denna webbsida: I denna studie studeras effekterna av att använda handhållna enheter på prestandan hos automatiska signaturverifieringssystem. Författarna jämför den diskriminerande kraften hos globala och lokala signaturfunktioner mellan mobila enheter och pennsurfplattor, som är den förhärskande anskaffningsapparaten i forskningslitteraturen. Individuella särdrag discriminant ratios och funktionsval tekniker används för jämförelse. Experiment utförs på standard signature benchmark databaser (BioSecure databas) och en toppmodern enhet (Samsung Galaxy Note). Resultaten visar en minskning av funktionens diskriminativa effekt och en högre verifieringsfelfrekvens på handhållna enheter. Det har konstaterats att en av de främsta orsakerna till försämring av prestandan på handhållna enheter är avsaknaden av information om pen-up bana (dvs. data som erhållits när pennspetsen inte är i kontakt med skrivytan).
Martinez-Diaz m.fl. REF jämförde prestandan hos globala och lokala funktioner när det gäller signaturverifiering på den mobila enheten och penntabletten, och fann att verifieringsmetoden uppnådde en lägre noggrannhet för mobila enheter.
18,140,485
Mobile signature verification: feature robustness and performance comparison
{'venue': 'IET Biom.', 'journal': 'IET Biom.', 'mag_field_of_study': ['Computer Science']}
7,083
Vi föreslår en djupt lärande metod för enkelbild super-upplösning (SR). Vår metod lär sig direkt en end-to-end-kartläggning mellan låg-/högupplösta bilder. Kartläggningen representeras som ett djupt konvolutionellt neuralt nätverk (CNN) som tar den lågupplösta bilden som ingång och utgångar den högupplösta. Vi visar vidare att traditionella SR-metoder baserade på sparse-kodning också kan ses som ett djupt konvolutionsnätverk. Men till skillnad från traditionella metoder som hanterar varje komponent separat optimerar vår metod gemensamt alla lager. Vår djupa CNN har en lätt struktur, men ändå visar toppmodern återställningskvalitet, och uppnår snabb hastighet för praktisk on-line-användning. Vi utforskar olika nätverksstrukturer och parameterinställningar för att uppnå kompromisser mellan prestanda och hastighet. Dessutom utökar vi vårt nätverk för att klara av tre färgkanaler samtidigt, och visa bättre övergripande återuppbyggnad kvalitet.
Nyligen föreslogs ett effektivt CNN-baserat tillvägagångssätt i REF, som direkt lärde sig en end-to-end kartläggning mellan LR- och HR-bilder för att utföra komplexa icke-linjära regressionsuppgifter.
6,593,498
Image Super-Resolution Using Deep Convolutional Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,084
Abstract-Software kod översyn är en inspektion av en kod ändring av en oberoende tredje part utvecklare för att identifiera och åtgärda defekter innan en integration. Effektivt utföra kod översyn kan förbättra den övergripande programvara kvalitet. Under de senaste åren, Modern Code Review (MCR), en lättviktig och verktygsbaserad kod inspektion, har allmänt antagits i både egenutvecklade och öppen källkod programvara system. Att hitta lämpliga kodgranskare i MCR är ett nödvändigt steg för att se över en kodändring. Men lite forskning är känd svårigheten att hitta kodgranskare i en distribuerad mjukvaruutveckling och dess inverkan på översynstiden. I detta dokument undersöker vi effekterna av recensioner med problem med kodgranskare uppdrag har på översyn tid. Vi tycker att det tar 12 dagar längre tid att godkänna en kodändring med problem med kodgranskare. För att hjälpa utvecklare att hitta lämpliga kodgranskare föreslår vi REFFINDER, en fil plats-baserad kod-granskare rekommendation tillvägagångssätt. Vi utnyttjar en likhet av tidigare granskade filsökväg för att rekommendera en lämplig kodgranskare. Intuitionen är att filer som finns i liknande filsökvägar skulle hanteras och granskas av liknande erfarna kodgranskare. Genom en empirisk utvärdering av en fallstudie av 42045 recensioner av Android Open Source Project (AOSP), OpenStack, Qt och LibreOffice projekt, finner vi att REVFINDER exakt rekommenderade 79% av recensioner med en topp 10 rekommendation. REFFINDER rekommenderade också korrekt kodgranskarna med en mediangrad på 4. Den övergripande rangordningen av REVFINDER är 3 gånger bättre än den för en baslinjemetod. Vi tror att REVFINDER skulle kunna tillämpas på MCR för att hjälpa utvecklare att hitta lämpliga kodgranskare och påskynda den övergripande processen för kodgranskning.
REF visade att 4%-30% av recensionerna har problem med att granska koder.
7,129,493
Who should review my code? A file location-based code-reviewer recommendation approach for Modern Code Review
{'venue': '2015 IEEE 22nd International Conference on Software Analysis, Evolution, and Reengineering (SANER)', 'journal': '2015 IEEE 22nd International Conference on Software Analysis, Evolution, and Reengineering (SANER)', 'mag_field_of_study': ['Computer Science']}
7,085
Abstract - Mängden sockerrör fiber som bärs av sockerrör bärare varierar på grund av icke-uniformity av sockerrör leverans. Den kontinuerliga variationen av sockerrör i fallskärmen under extraktionen av sockerrörssaften påverkar omvänt valsens extraktionseffektivitet. Detta dokument handlar om utveckling och prestanda jämförelse av konventionell styrenhet och fuzzy controller för att upprätthålla sockerrörsnivån i fallskärm under juice extraktion. Den konventionella styrenheten är utvecklad med hjälp av VHDL språk och simuleras med hjälp av Xilinx ISE 14.5 version. Den luddiga styrenheten utvecklas och simuleras med hjälp av den luddiga verktygslådan i MATLAB ® version 7.11.0.584 (R2020b).
I REF beskrivs fördelarna med en FLC med avseende på en konventionell regulator för att upprätthålla en önskad sockerrörsnivå i fallskärmen vid juiceextraktion vid olika referenser.
55,599,315
Design Algorithm and Performance Analysis of Conventional and Fuzzy Controller for Maintaining the Cane Level during Sugar Making Process
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
7,086
Abstract-In Wireless Sensor Networks (WSNs) är klusterteknik vanligtvis används som en viktig effektiv lösning för att förlänga nätverkets livslängd genom att minska energiförbrukningen bland sensorn noder. Trots många arbeten på kluster i WSNs är denna fråga fortfarande olöst. De flesta befintliga lösningarna lider dock av långa och iterativa klustercykler. I ett försök att fylla i denna lucka föreslår vi ett nytt klusterbaserat protokoll, kallat Load-balance Cluster Based Protocol (LCP) som introducerar en ny strategi mellan kluster för att öka nätverkets livslängd. Detta nya protokoll roterar kontinuerligt valet av Cluster Head (CH) val i varje kluster, och väljer noden med den högsta återstående energi i varje omgång. Omfattande simuleringsförsök visar att vårt föreslagna tillvägagångssätt effektivt balanserar energiförbrukningen bland alla sensornoder och ökar nätverkets livslängd jämfört med andra klusterprotokoll.
Nyligen föreslogs det belastningsbalanserande Clustering-baserade protokollet (LCP) REF.
5,111,014
A new energy efficient Cluster Based Protocol for Wireless Sensor Networks
{'venue': '2015 Federated Conference on Computer Science and Information Systems (FedCSIS)', 'journal': '2015 Federated Conference on Computer Science and Information Systems (FedCSIS)', 'mag_field_of_study': ['Computer Science']}
7,087
Vi tar itu med det utmanande problemet med att känna igen kamerabärarens handlingar från videor tagna av en egocentrisk kamera. Egocentriska videor koda en rik uppsättning signaler om kamerabäraren, inklusive huvudrörelse, handposition och blickinformation. Vi föreslår att använda dessa mellannivå egocentriska signaler för egocentrisk handlingsigenkänning. Vi presenterar en ny uppsättning egocentriska funktioner och visar hur de kan kombineras med rörelse- och objektfunktioner. Resultatet är en kompakt representation med överlägsen prestanda. Dessutom ger vi den första systematiska utvärderingen av rörelse, objekt och egocentriska signaler i egocentrisk handlingsigenkänning. Vårt riktmärke leder till flera överraskande upptäckter. Dessa resultat avslöjar de bästa metoderna för egocentriska åtgärder, med en betydande förbättring jämfört med alla tidigare toppmoderna metoder på tre allmänt tillgängliga dataset.
REF gjorde en systematisk utvärdering av olika egenskaper och tillhandahöll en förteckning över bästa praxis för att kombinera olika förutsättningar för erkännande av verksamhet.
16,840,584
Delving into egocentric actions
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Medicine', 'Computer Science']}
7,088
Snabb samtidig lokalisering och kartläggning (FastSLAM) är en effektiv algoritm för autonom navigering av mobila fordon. FastSLAM måste dock konfigurera om hela fordonets tillstånd ekvation när funktionspunkterna ändras, vilket orsakar en exponentiell ökning av mängder av beräkningar och svårigheter att isolera potentiella fel. För att övervinna dessa begränsningar utvecklas ett förbättrat FastSLAM, baserat på den distribuerade strukturen, i detta dokument. I detta förbättrade FastSLAM finns två delar för statsuppskattning. För det första används ett distribuerat ocentrerat partikelfilter för att undvika omkonfigurering av hela systemekvationen i fordonsstatsuppskattningsdelen. För det andra är observationsmodellen i värderingsdelen av landmärkena utformad som en linjär modell för att uppdatera landmärkena genom att använda de linjära observationsfelen. Därefter är konvergensen av den föreslagna och förbättrade FastSLAM algoritm ges i betydelsen av medel kvadrat. Slutligen visar simuleringsresultaten att den föreslagna distribuerade algoritmen kan minska beräkningskomplexiteten med hög noggrannhet och hög feltolerans.
Pei m.fl. REF som används distribuerat ocentrerat partikelfilter för att undvika omkonfigurering av hela systemet under uppskattningen av fordonets tillstånd.
8,217,839
An Improved FastSLAM System Based on Distributed Structure for Autonomous Robot Navigation
{'venue': 'J. Sensors', 'journal': 'J. Sensors', 'mag_field_of_study': ['Engineering', 'Computer Science']}
7,089
Abstrakt. Även om det i allmänhet är svårt att bedriva handel med prospektering och exploatering för att stärka inlärningen, finns det under vissa formuleringar relativt enkla lösningar. Optimala beslutströsklar för det mångarmade banditproblemet, en för den oändliga horisonten diskonterat belöningsfall och en för den ändliga horisonten odiskonterade belöningsfall härleds, vilket gör kopplingen mellan belöningshorisonten, osäkerhet och behovet av utforskning explicit. Av detta resultat följer två praktiska approximativa algoritmer, som illustreras experimentellt.
I REF härledde författaren optimala beslutströsklar för multi-armad bandit problem, för både den oändliga horisonten diskonterade belöningsfall och för den ändliga horisonten odiskonterade fall.
6,402,149
Nearly optimal exploration-exploitation decision thresholds
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,090
På senare år, på grund av de omfattande tillämpningarna av osäkra data, har gruvdrift frekventa artiklar över osäkra databaser väckt stor uppmärksamhet. I osäkra databaser är stödet för en itemset en slumpmässig variabel istället för en fast händelseräkning av denna itemset. Till skillnad från motsvarande problem i deterministiska databaser där de ofta förekommande objekten har en unik definition, har de ofta förekommande objekten under osäkra miljöer hittills två olika definitioner. Den första definitionen, som kallas den förväntade stödbaserade ofta förekommande itemseten, använder sig av förväntan om stöd från en itemset för att mäta om denna itemset är frekvent. I den andra definitionen, kallad den probabilistiska ofta förekommande itemseten, används sannolikheten för stöd av en itemset för att mäta dess frekvens. Således är det befintliga arbetet med gruvdrift frekventa artiklar över osäkra databaser indelat i två olika grupper och ingen studie utförs för att på ett heltäckande sätt jämföra de två olika definitionerna. Eftersom det inte finns någon enhetlig experimentell plattform ger de nuvarande lösningarna för samma definition till och med inkonsekventa resultat. I detta dokument syftar vi för det första till att klargöra förhållandet mellan de två olika definitionerna. Genom omfattande experiment verifierar vi att de två definitionerna har en snäv koppling och kan förenas när datastorleken är tillräckligt stor. För det andra tillhandahåller vi basalimplementeringar av åtta befintliga representativa algoritmer och testar deras prestanda med enhetliga åtgärder på ett rättvist sätt. Slutligen, enligt rättvisa tester över många olika referensdatauppsättningar, klargör vi flera befintliga inkonsekventa slutsatser och diskuterar några nya rön.
Det finns två kategorier av forskning om gruvdrift frekventa artiklar från osäkra data REF.
647,525
Mining Frequent Itemsets over Uncertain Databases
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
7,091
De flesta av de befintliga multi-dokument summeringsmetoderna sönderdela dokumenten i meningar och arbeta direkt i meningsrymden med hjälp av en term-sentence matris. Kunskaperna på dokumentsidan, dvs. de ämnen som ingår i dokumenten, kan hjälpa sammanhanget att förstå och vägleda valet av mening i summeringsprocessen. I detta dokument föreslår vi en ny Bayesiansk meningsbaserad ämnesmodell för summering genom att använda både term-dokument och term-sentence föreningar. En effektiv variationsalgoritm för Bayesian härleds för modellparameteruppskattning. Experimentella resultat på referensdatauppsättningar visar hur effektiv den föreslagna modellen är för den multi-dokumentsammanfattningsuppgiften.
I REF föreslogs en ny Bayesiansk meningsbaserad ämnesmodell genom att man använde både termerna dokument och termer för att förbättra resultatet av meningsvalet.
189,209
Multi-Document Summarization using Sentence-based Topic Models
{'venue': 'ACL-IJCNLP: Short Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,092
Objektrekommendation är uppgiften att förutsäga en personlig rankning på en uppsättning objekt (t.ex. webbplatser, filmer, produkter). I detta dokument undersöker vi det vanligaste scenariot med implicit feedback (t.ex. klick, inköp). Det finns många metoder för punktrekommendation från implicit feedback som matris factorization (MF) eller adaptiv knearest-grannbor (kNN). Även om dessa metoder är utformade för objektet förutsägelse uppgift personlig rankning, ingen av dem är direkt optimerad för rankning. I detta papper presenterar vi ett generiskt optimeringskriterium BPR-Opt för personlig rankning som är den maximala bakre estimator härledd från en Bayesian analys av problemet. Vi tillhandahåller också en generisk inlärningsalgoritm för optimering av modeller med avseende på BPR-Opt. Inlärningsmetoden är baserad på stokastisk lutning nedstigning med bootstrap provtagning. Vi visar hur vi tillämpar vår metod på två toppmoderna rekommendationsmodeller: matrisfaktorisering och adaptiv kNN. Våra experiment visar att för uppgiften att personlig rankning vår optimeringsmetod överträffar standard inlärningstekniker för MF och kNN. Resultaten visar vikten av att optimera modeller för rätt kriterium.
REF presenterar en allmän Bayesian personlig rankning ram som är optimerad för området under ROC (AUC) metrisk.
10,795,036
BPR: Bayesian Personalized Ranking from Implicit Feedback
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,093
Abstract-Distributed mobile crowd sensing håller på att bli ett värdefullt paradigm, vilket möjliggör en mängd nya applikationer som bygger på mobila nätverk och smarta enheter. Denna trend medför dock flera utmaningar, bland annat behovet av crowdsourcing plattformar för att hantera samspelet mellan applikationer och publiken (deltagare eller arbetstagare). En av de viktigaste funktionerna för sådana plattformar är rumslig uppgiftstilldelning som tilldelar deltagarna avkänningsuppgifter baserat på deras platser. Uppgiftsuppdraget blir kritiskt när deltagarna är tveksamma till att dela sina platser på grund av sekretessproblem. I den här artikeln undersöker vi problemet med rumslig uppgiftstilldelning i crowd sensing när deltagarna använder rumsliga kamouflage för att fördunkla sina platser. Vi undersöker metoder för tilldelning av analysuppgifter till deltagare, effektiv hantering av platsosäkerhet och resursbegränsningar. Vi föreslår en ny tvåstegsoptimeringsmetod som består av global optimering med hjälp av dolda platser följt av en lokal optimering med hjälp av deltagarnas exakta platser utan att bryta mot integriteten. Experimentella resultat med hjälp av både syntetiska och verkliga data visar att våra metoder uppnår hög sensortäckning med låga kostnader med hjälp av dolda platser.
Pournajaf m.fl. REF beaktade rumslig uppgiftstilldelning för crowd sensing med dolda platser.
1,476,603
Spatial Task Assignment for Crowd Sensing with Cloaked Locations
{'venue': '2014 IEEE 15th International Conference on Mobile Data Management', 'journal': '2014 IEEE 15th International Conference on Mobile Data Management', 'mag_field_of_study': ['Computer Science']}
7,094
Crowdsourcing används i allt högre grad för att lösa enkla uppgifter som bildmärkning och objektmärkning, samt mer komplexa uppgifter, där crowdarbetare samarbetar i processer med beroende av varandra. För hela skalan av komplexitet, forskning har gett många mönster för att samordna crowd arbetare för att optimera crowd noggrannhet, effektivitet och kostnad. Processdesigners vet dock ofta inte vilket mönster som ska gälla för ett problem som finns när man utformar nya applikationer för crowdsourcing. I den här artikeln föreslår vi att lösa detta problem genom att systematiskt utforska designutrymmet för komplexa crowdsourced uppgifter via automatiserad rekombination och auto-experiment för en fråga i hand. I synnerhet föreslår vi en strategi för att hitta den optimala processen för ett givet problem genom att definiera problemets djupa struktur i termer av dess abstrakta operatörer, generera alla möjliga alternativ via (åter)kombinationen av den abstrakta djupa strukturen med konkreta genomföranden från ett Processarkiv, och sedan etablera det bästa alternativet via auto-experiment. För att utvärdera vårt tillvägagångssätt implementerade vi PPLib (uttalas "People Lib"), ett programbibliotek som möjliggör automatisk rekombination av kända processer som lagras i ett enkelt extensible Process Repository. Vi utvärderade vårt arbete genom att generera och driva en uppsjö av processkandidater i två scenarier på Amazons Mechanical Turk följt av en meta-utvärdering, där vi tittade på skillnaderna mellan de två utvärderingarna. Vårt första scenario tog upp problemet med textöversättning, där vår automatiska rekombination producerade flera processer vars prestanda nästan matchade riktmärket som fastställts av en expertöversättning. I vår andra utvärdering fokuserade vi på textförkortning; vi genererade automatiskt 41 crowd process kandidater, bland dem variationer av den väletablerade Find-Fix-Verifiera processen. Medan Find-Fix-Verifiera fungerade bra i denna miljö, vår rekombination motor producerade fem processer som upprepade gånger gav bättre resultat. Vi avslutar artikeln genom att jämföra de två inställningar där rekombinatorn användes, och empiriskt visar att de enskilda processerna utfördes olika i de två inställningarna, vilket fick oss att hävda att det inte finns någon enande formel, vilket understryker nödvändigheten av rekombination.
PPLib REF använder på liknande sätt principen om processrekombination, men stöder automatisk rekombination och sammansättning av delprocesser (operatörer) i sökandet efter en optimal process för en given uppgift.
17,906,747
PPLib: Toward the Automated Generation of Crowd Computing Programs Using Process Recombination and Auto-Experimentation
{'venue': 'TIST', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,095
ABSTRACT Kortaste sökvägen frågor har använts i stor utsträckning i platsbaserade tjänster (LBS). För att beräkna den kortaste vägen från ett ursprung till en destination behöver en LBS-leverantör vanligtvis känna till kartuppgifterna för det underliggande vägnätet, vilket kan vara ganska kostsamt, särskilt om sådana uppgifter behöver hållas kontinuerligt och uppdaterat. Ett kostnadseffektivt sätt är att LBS-leverantörer lägger ut den kortaste sökvägen på molnbaserade karttjänster som Google Maps, genom att hämta detaljerad sökvägsinformation från dem genom externa förfrågningar. På grund av den höga kostnaden för att få tillgång till data genom externa förfrågningar och användningsgränser för karttjänster, föreslår vi två optimeringstekniker i detta dokument, nämligen Path sharing och path caching, för att minska antalet externa förfrågningar och användarens svarstid. Till skillnad från tidigare arbete där det underliggande vägnätet ges, optimerar detta papper sökvägen behandling endast baserat på frågekällor och destinationer. Den grundläggande idén med att dela sökväg optimering är att sökväg information av en fråga kan delas med en annan fråga q om q värden ursprung och destination båda ligger på sökvägen. För att uppnå detta föreslår vi en effektiv metod för att beräkna om en frågeorigin/destination ligger på en väg som endast baseras på det euklideiska avståndet mellan dem. Sökväg caching, en förlängning av sökväg delning, låter en LBS leverantör svara sökväg frågor direkt baserat på cachesökvägar. För att uppnå detta formulerar vi först problemet med att bygga sökväg cache som en knapsack problem och utforma en girig algoritm för att lösa det; sedan, vi utformar en effektiv cache struktur för att stödja effektiv cache uppslagning. Omfattande experiment på Bing Maps och verkliga datamängder utförs, och resultaten visar effektiviteten, skalbarheten och tillämpligheten av våra föreslagna tillvägagångssätt. INDEX TERMS Kortaste sökvägar, platsbaserade tjänster, karttjänster, molntjänster, delning av sökvägar, sökvägar.
Zhang m.fl. REF insåg sökningen av den kortaste sökvägen genom molnbaserade karttjänster med delning av sökvägar och cachelagring av sökvägar, utan att känna till den underliggande grafstrukturen eller nätverkstopologin, även om endast de raka linjerna för delning av sökvägar beaktas.
3,921,114
Efficient Path Query Processing Through Cloud-Based Mapping Services
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
7,096
Abstract-Replication är en allmänt använd metod för att skydda storskaliga datalagringssystem från dataförlust när lagringsnoder misslyckas. Det är väl känt att placeringen av repliker av de olika datablocken över noderna påverkar tiden att återuppbygga. Flera system som beskrivs i litteraturen är utformade utifrån premissen att minimera återuppbyggnadstiderna maximerar systemets tillförlitlighet. Våra resultat visar dock att tillförlitligheten i huvudsak inte påverkas av replikaplaceringsplanen. Vi visar att för en replikeringsfaktor på två, alla möjliga placeringsprogram har medeltid till dataförlust (MTTDLs) inom en faktor på två för praktiska värden av felfrekvens, lagringskapacitet, och återuppbygga bandbredden av en lagringsnod. De teoretiska resultaten bekräftas med hjälp av händelsedriven simulering. För högre replikationsfaktorer blir en analytisk härledning av MTTDL svåråtkomlig för en allmän placeringsplan. Vi använder därför ett av de alternativa mått på tillförlitlighet som har föreslagits i litteraturen, nämligen sannolikheten för dataförlust under återuppbyggnaden i systemets kritiska läge. Medan för en replikationsfaktor av två denna åtgärd kan direkt översättas till MTTDL, är det bara spekulativ av MTTDL beteende för högre replikationsfaktorer. Detta mått på tillförlitlighet visas ligga inom en faktor på två för alla möjliga placeringsprogram och eventuella replikeringsfaktorer. Vi visar också att för alla replikeringsfaktorer har det klusterbaserade placeringsschemat den lägsta sannolikheten för dataförlust under ombyggnad i kritiskt läge bland alla möjliga placeringsprogram, medan det deklustrerade placeringsschemat har den högsta sannolikheten. Simuleringsresultat visar dock att dessa egenskaper inte håller för motsvarande MTTDL för en replikationsfaktor större än två. Detta tyder på att vissa alternativa tillförlitlighetsåtgärder kanske inte är lämpliga för att jämföra MTTDL för olika placeringsprogram.
För en replikationsfaktor på två, dessa två effekter eliminerar, och därför alla placeringsprogram har liknande tillförlitlighet REF.
9,107,801
Effect of Replica Placement on the Reliability of Large-Scale Data Storage Systems
{'venue': '2010 IEEE International Symposium on Modeling, Analysis and Simulation of Computer and Telecommunication Systems', 'journal': '2010 IEEE International Symposium on Modeling, Analysis and Simulation of Computer and Telecommunication Systems', 'mag_field_of_study': ['Computer Science']}
7,097
ABSTRACT Eftersom Internet of Things förväntas bli genomträngande i vardagen, förväntas det också att många tillämpningar och tjänster med ett stort antal bluetooth lågenergi (BLE) enheter kommer att utvecklas för områden som sportarenor, tunnelbana, köpcentra och många andra hektiska offentliga platser. Den snabba upptäckten av alla BLE annonsörer är en av de mest utmanande uppgifterna att stödja ett så stort antal BLE-aktiverade tjänster framgångsrikt. Men det har inte publicerats någon forskning hittills som presenterar en metod för att ställa in parametrar som ger bästa prestanda i BLE granne upptäckt process. I den här artikeln föreslår vi en metod för att bestämma ett optimalt värde för BLE-annonsintervallet för att minimera den tid då alla omgivande BLE-annonsörer upptäcks av en scanner. För att få det optimala annonsintervallet tar vi fram en ny analytisk modell för att karakterisera BLE-upptäcktstiden med alla möjliga parametrar. Vi analyserar också effekten av det optimala annonsintervallet på energiförbrukningen. Analysmodellen valideras genom att analysresultaten jämförs med simuleringarna. Simuleringsresultaten visar att det optimala annonsintervallet för ett givet antal BLE-annonsörer kan minimera upptäcktstiden, och energiförbrukningen minskas också avsevärt. INDEX TERMS Bluetooth låg energi, Internet of Things, granne upptäckt process, minimal upptäckt tid, annons intervall.
Papperet av Shan och Roh REF fokuserar på upptäcktstiden för BLE-taggar.
5,037,111
Advertisement Interval to Minimize Discovery Time of Whole BLE Advertisers
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
7,098
Lärandeproblem utgör en viktig kategori av beräkningsuppgifter som generaliserar många av de beräkningar forskare tillämpar på stora verkliga datamängder. Vi frågar oss: vilka konceptklasser kan man lära sig privat, nämligen genom en algoritm vars utdata inte är alltför starkt beroende av någon input eller något specifikt utbildningsexempel? Mer exakt undersöker vi lärande algoritmer som tillgodoser differential integritet, ett begrepp som ger starka sekretessgarantier i sammanhang där aggregerad information släpps om en databas som innehåller känslig information om individer. Vårt mål är en bred förståelse av de resurser som krävs för privat lärande i form av prover, beräkningstid och interaktion. Vi visar att det är möjligt att privat agnostiskt lära sig vilken konceptklass som helst med hjälp av en provstorlek som är ungefär logaritmisk i begreppsklassens kardinalitet. Därför är nästan allt man kan lära sig privat: specifikt, om en konceptklass kan läras av en (icke-privat) algoritm med polynomisk prov komplexitet och produktionsstorlek, då kan det läras privat med hjälp av ett polynom antal prover. Vi presenterar också en beräkningseffektiv privat PAC-inlärare för klassen paritetsfunktioner. Detta resultat skingrar likheten mellan lärande med buller och privat lärande (båda måste vara robusta till små förändringar i input), eftersom paritet anses vara mycket svårt att lära med tanke på slumpmässig klassificering buller. Lokala (eller randomiserade svar) algoritmer är en praktisk klass av privata algoritmer som har fått omfattande utredning. Vi ger en exakt karakterisering av lokala privata inlärningsalgoritmer. Vi visar att en konceptklass kan läras av en lokal algoritm om och endast om den är inlärbar i den statistiska frågeställningen (SQ). Därför, för lokala privata lärande algoritmer, likheten med lärande med buller är starkare: lokalt lärande är likvärdigt med SQ lärande, och SQ algoritmer inkluderar mest kända bullertoleranta lärande algoritmer. Slutligen presenterar vi en åtskillnad mellan kraften i interaktiva och icke-interaktiva lokala inlärningsalgoritmer. På grund av likvärdigheten med SQ-inlärning separerar detta resultat också adaptivt och icke adaptivt SQ-inlärning.
Kasiviswanathan m.fl. I REF föreslogs lokal differentiell integritet som gav starka sekretessgarantier i de sammanhang där aggregerad information släpptes om en databas som innehöll känslig information om enskilda personer.
1,935
What Can We Learn Privately?
{'venue': 'SIAM Journal of Computing 40(3) (2011) 793-826', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,099
Dichotomy Conjecture for Constraint Tillfredsställelse Problem har verifierats för konservativa problem (eller, motsvarande, för lista homomorphism problem) av Andrei Bulatov. Ett tidigare fall av denna dikotomi, för lista homomorfismer till oriktade grafer, kom med en elegant strukturell skillnad mellan de dragbara och svåråtkomliga fall. Sådan strukturell karakterisering saknas i Bulatovs klassificering, och Bulatov frågade om man kan hittas. Vi ger ett svar när det gäller digrafer. I processen ger vi förbjudna strukturkarakteriseringar av förekomsten av vissa polymorfismer som är relevanta i Bulatovs dikotomiklassificering. Nyckelbegreppet vi introducerar är en digrafasteroid trippel (DAT). Dikotomi tar sedan följande form. Om en digraf H har en DAT, då listan homomorfism problem för H är NP-komplett; och en DAT-fri digraf H har en polynom tid solvable lista homomorphism problem. DAT-fria digrafer kan kännas igen i polynom tid. Det följer av våra resultat att listan homomorfism problem för en DAT-fri digraf H kan lösas med en lokal konsekvent algoritm (av bredd (2,3)).
En strukturell skillnad mellan dragbar och NP-fullständig lista homomorfism problem för digrafer hittades i REF.
9,186,241
The dichotomy of list homomorphisms for digraphs
{'venue': "SODA '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,100
ABSTRACT Energieffektivitet är ett grundläggande problem på grund av att många uppgifter utförs på mobila enheter med begränsade resurser. Mobile cloud computing (MCC)-teknik kan avlasta beräkningsintensiva uppgifter från mobila enheter till kraftfulla molnservrar, vilket avsevärt kan minska energiförbrukningen hos mobila enheter och därmed förbättra deras kapacitet. I MCC överför mobila enheter data via den trådlösa kanalen. Eftersom kanalens tillstånd är dynamiskt kommer dock avlastning med låg överföringshastighet att leda till ett allvarligt slöseri med tid och energi, vilket ytterligare försämrar kvaliteten på tjänsten (QoS). För att ta itu med detta problem föreslår detta dokument en energieffektiv och deadline-medveten uppgift offloading strategi baserat på kanalen begränsning, med målet att minimera energiförbrukningen av mobila enheter samtidigt som de tidsfrister begränsningar mobila moln arbetsflöden. Specifikt formulerar vi först en uppgift som avlastar beslutsmodell som kombinerar kanaltillståndet med uppgiftsattribut som arbetsbelastning och storleken på dataöverföringen för att avgöra om uppgiften behöver avlastas eller inte. Efteråt använder vi den till en ny adaptiv tröghet vikt-baserad partikel svärm optimering (NAIWPSO) algoritm för att skapa vår kanal begränsning-baserad strategi (CC-NAIWPSO), som kan få en nästan optimal avlastningsplan som kan förbruka mindre energi samtidigt som deadlines. De experimentella resultaten visar att vår föreslagna avlastningsstrategi kan överträffa andra strategier när det gäller energiförbrukningen hos mobila enheter, körningstiden för mobila molnarbetsflöden och algoritmernas körtid. INDEX TERMS Mobile cloud computing, avlastning av uppgifter, kanalbegränsning, energiförbrukning.
I REF, Wang et al. föreslog en energieffektiv och deadline-medveten uppgift offloading strategi baserat på kanalen begränsning, med målet att minimera energiförbrukningen av mobila enheter samtidigt som deadline begränsningar mobila moln arbetsflöden De använde en adaptiv tröghet viktbaserad partikel svärm optimering för att lösa optimeringsproblem.
184,476,979
An Energy-Efficient and Deadline-Aware Task Offloading Strategy Based on Channel Constraint for Mobile Cloud Workflows
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
7,101
Skeleton baserad handlingsigenkänning skiljer mänskliga handlingar med hjälp av banor i skelett leder, som ger en mycket bra representation för att beskriva åtgärder. Med tanke på att återkommande neurala nätverk (RNN) med Long Short-Term Memory (LSTM) kan lära sig funktionsrepresentationer och modellera långsiktiga tidsmässiga beroenden automatiskt, föreslår vi en endto-end fullt ansluten djup LSTM-nätverk för skelettbaserad åtgärdsigenkänning. Inspirerade av observationen att samtidiga förekomster av lederna i sig kännetecknar mänskliga handlingar, tar vi skelettet som ingång vid varje tid slits och införa en ny legaliseringsschema för att lära sig co-occurence egenskaper skelett leder. För att effektivt träna det djupa LSTM-nätverket föreslår vi en ny avhoppsalgoritm som samtidigt fungerar på portarna, cellerna och utgångssvaren hos LSTM-neuronerna. Experimentella resultat av tre datauppsättningar för erkännande av mänskliga åtgärder visar konsekvent hur effektiv den föreslagna modellen är.
Zhu m.fl. I REF infördes ett legaliseringsbegrepp för LSTM-nätverkets objektiva funktion för att driva hela ramen mot att lära sig samexisterande relationer mellan parterna för erkännande av åtgärder.
8,172,563
Co-occurrence Feature Learning for Skeleton based Action Recognition using Regularized Deep LSTM Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,102
Bakgrund: Detta dokument beskriver utvecklingen av ett webbaserat verktyg, GenDrux, som extraherar och presenterar (över Internet) information om sjukdomen-gen-drog nexus. Denna information arkiveras från relevant biomedicinsk litteratur med hjälp av automatiserade metoder. GenDrux är utformad för att lindra svårigheterna med att manuellt bearbeta den omfattande biomedicinska litteraturen för att identifiera sjukdom-gen-läkemedel relationer. GenDrux kommer att utvecklas med litteraturen utan ytterligare algoritmiska modifieringar. Resultat: GenDrux, ett pilotsystem, utvecklas inom området bröstcancer och kan nås på http://www. mikroarray.uab.edu/drug_gene.pl. GenDrux kan ställas utifrån läkemedels-, gen- och/eller sjukdomsnamn. Från över 8.000 relevanta abstracts från den biomedicinska litteraturen om bröstcancer har vi arkiverat en corpus på mer än 4.000 artiklar som skildrar genuttryck-drogaktivitetsrelationer för bröstcancer och relaterade cancerformer. Arkiveringsprocessen har automatiserats. Slutsatser: Den framgångsrika utvecklingen, implementeringen och utvärderingen av detta och liknande system när de skapas kan förse kliniker med ett verktyg för litteraturhantering, kliniskt beslutsfattande och därmed sätta plattformen för personlig terapi i framtiden.
GenDrux REF, frågor PubMed att identifiera sjukdom-gen-läkemedel relationer; pilot genomförandet har tillämpats på bröstcancer området.
1,902,299
GenDrux: A biomedical literature search system to identify gene expression-based drug sensitivity in breast cancer
{'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']}
7,103
Abstrakt. Vi presenterar det första genomförandet av ett decentraliserat och självstyrande protokoll för internetröstning med maximal integritet för väljare med hjälp av blockkedjan. Open Voice Network lämpar sig för val till styrelse och är skrivet som ett smart kontrakt för Ethereum. Till skillnad från tidigare föreslagna blockchain e-voting protokoll, är detta det första genomförandet som inte förlitar sig på någon betrodd myndighet för att beräkna stämmer eller för att skydda väljarens integritet. Istället är Open Voice Network ett självupptaget protokoll, och varje väljare har kontroll över integriteten av sin egen röst så att det bara kan brytas genom en fullständig samverkan med alla andra väljare. Genomförandet av protokollet verkställs med hjälp av samförståndsmekanismen som också säkrar Ethereum blockchain. Vi testade genomförandet på Ethereums officiella testnätverk för att visa dess genomförbarhet. Dessutom tillhandahåller vi en finansiell och beräkningsmässig uppdelning av dess genomförandekostnad.
McCorry Pd m.fl. föreslog ett blockchain smart kontrakt för styrelseval i REF, vilket är det första systemet som inte förlitar sig på någon betrodd myndighet att räkna och garantera väljarnas integritet.
12,045,615
A Smart Contract for Boardroom Voting with Maximum Voter Privacy
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
7,104
Abstract-Vi föreslår en temporal latent utrymme modell för länk förutsägelse i dynamiska sociala nätverk, där målet är att förutsäga länkar över tid baserat på en sekvens av tidigare graf ögonblicksbilder. Modellen antar att varje användare ligger i ett oobserverat latent utrymme, och interaktioner är mer sannolikt att uppstå mellan liknande användare i latent utrymme representation. Dessutom gör modellen det möjligt för varje användare att gradvis flytta sin position i det latenta utrymmet när nätverksstrukturen utvecklas över tiden. Vi presenterar en global optimeringsalgoritm för att på ett effektivt sätt dra slutsatsen att rymden är latent. Två alternativa optimeringsalgoritmer med lokala och inkrementella uppdateringar föreslås också, vilket gör det möjligt för modellen att skala till större nätverk utan att äventyra förutsägelsenoggrannheten. Empiriskt visar vi att vår modell, när den utvärderas på ett antal dynamiska nätverk i verkligheten, avsevärt överträffar befintliga metoder för tidslänkförutsägelse både vad gäller skalbarhet och prediktiv kraft.
Två alternativa optimeringsalgoritmer med lokala uppdateringar och inkrementella uppdateringar har föreslagits för att ge modellen möjlighet att skala till jämförelsevis större nätverk utan att offra förutsägelsenoggrannhet REF.
52,800,598
Scalable Temporal Latent Space Inference for Link Prediction in Dynamic Social Networks
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
7,105
Att bygga dialogagenter som kan samtala naturligt med människor är ett utmanande men ändå spännande problem med artificiell intelligens. I öppen-domänen människa-dator konversation, där konversationsagenten förväntas svara på mänskliga svar på ett intressant och engagerande sätt, allmängiltig kunskap måste integreras i modellen på ett effektivt sätt. I det här dokumentet undersöker vi effekterna av att tillhandahålla allmänenlig kunskap om de begrepp som behandlas i dialogrutan. Vår modell representerar det första försöket att integrera en stor gemensam kunskapsbas i end-to-end-konversationsmodeller. I det återhämtningsbaserade scenariot föreslår vi Tri-LSTM-modellen för att gemensamt ta hänsyn till budskap och allmängiltighet för att välja ett lämpligt svar. Våra experiment tyder på att de kunskapsbaserade modellerna är överlägsna sina kunskapsfria motsvarigheter i automatisk utvärdering.
REF undersökte effekterna av att tillhandahålla allmän kännedom om de begrepp som omfattas av dialogen. ) föreslog en neural kunskapsspridningsmodell för att införa kunskap i dialoggenerering.
19,179,559
Augmenting End-to-End Dialog Systems with Commonsense Knowledge
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,106
Abstract-Definiera en optimal skyddsstrategi mot virus, spamspridning eller någon annan typ av kontaminering process är en viktig funktion för att utforma nya nätverk och arkitekturer. I detta arbete anser vi decentraliserade optimala skyddsstrategier när ett virus sprids över ett nätverk genom en SIS-epidemiprocess. Vi antar att varje nod i nätverket kan helt skydda sig från infektion till en konstant kostnad, eller noden kan använda återvinning programvara, när den är infekterad. Vi modellerar vårt system med hjälp av ett spelteoretiskt ramverk och hittar rena, blandade jämvikter, och priset på anarki (PoA) i flera nätverkstopologier. Vidare föreslår vi både en decentraliserad algoritm och ett iterativt förfarande för att beräkna en ren jämvikt i det allmänna fallet med ett nätverk av flera grupper. Slutligen utvärderar vi algoritmerna och ger numeriska illustrationer av alla våra resultat.
Medan i REF, författarna anser en decentraliserad optimal skyddsstrategi för varje nod beroende på den globala topologin.
12,533,874
Decentralized Protection Strategies against SIS Epidemics in Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,107
Utbildning av storskaliga djupa neurala nätverk begränsas ofta av tillgängliga beräkningsresurser. Vi studerar effekten av begränsad precision data representation och beräkning på neurala nätverk utbildning. Inom ramen för låga precisionsberäkningar, observerar vi avrundningsschemat för att spela en avgörande roll för att bestämma nätverkets beteende under utbildningen. Våra resultat visar att djupa nätverk kan tränas med endast 16-bitars bred fast punkt nummer representation när du använder stokastisk avrundning, och medför lite till ingen försämring i klassificeringen noggrannhet. Vi demonstrerar också en energieffektiv hårdvaruaccelerator som implementerar låg precision fast punkt aritmetik med stokastisk avrundning.
Gupta m.fl. REF använder stokastisk avrundning för att träna djupa nätverk med 16-bitars bred fast punkt nummer representation.
2,547,043
Deep Learning with Limited Numerical Precision
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,108
Vi presenterar en djupinlärningsmodell, DE-LSTM, för simulering av en stokastisk process med en underliggande ickelinjär dynamik. Den djupa inlärningsmodellen syftar till att approximera sannolikhetstäthetsfunktionen hos en stokastisk process via numerisk diskretisering och den underliggande ickelinjära dynamiken modelleras av nätverket Long Short-Term Memory (LSTM). Det visas att när numerisk diskretisering används kan problemet med funktionsuppskattning lösas genom ett flermärkt klassificeringsproblem. En straffbar maximal logsannolikhet metod föreslås för att införa en jämnhet villkor i förutsägelsen av sannolikhetsfördelningen. Vi visar att tidsutvecklingen av sannolikhetsfördelningen kan beräknas genom en högdimensionell integration av övergångssannolikheten för LSTM interna stater. En Monte Carlo algoritm för att approximera den högdimensionella integrationen beskrivs. De-LSTM:s beteende undersöks noggrant genom att använda Ornstein-Uhlenbeck-processen och bullriga observationer av ickelinjära dynamiska system; Mackey-Glass tidsserie och påtvingad Van der Pol oscillator. Det visas att DE-LSTM gör en bra förutsägelse om sannolikhetsfördelningen utan att anta några fördelningsegenskaper hos den stokastiska processen. För en flerstegsprognos av tidsserien Mackey-Glass, förutsägelsen osäkerhet, betecknar 95% konfidensintervall, först växer, sedan dynamiskt justerar efter utvecklingen av systemet, medan i simuleringen av den påtvingade Van der Pol oscillator, prognos osäkerheten växer inte i tid även för en 3.000-steg prognos.
Yeo och Melnyk REF presenterade en RNN-baserad modell utan något antagande för att direkt förutsäga sannolikhetstäthet för simulering av bullriga ickelinjära dynamiska system.
3,519,199
Deep learning algorithm for data-driven simulation of noisy dynamical system
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']}
7,109
I kognitiva radionät, spektrumavkänning datafalsifiering (SSDF) attack är en avgörande faktor som försämrar detektionen prestanda kooperativ spektrumavkänning. I detta dokument föreslår och analyserar vi en ny probabilistisk mjuk SSDF-attackmodell, som går utöver de befintliga modellerna för dess generalisering. Under denna generaliserade SSDF attack modell får vi först slutna form uttryck för global avkänning prestanda vid fusionscentret. Sedan utvärderar vi teoretiskt utförandet av den föreslagna attackmodellen, i termer av destruktivitet och smygsamhet, sekventiellt. Numeriska simuleringar matchar analysresultaten väl. Sist men inte minst upptäcks en intressant kompromiss mellan destruktivitet och smygsamhet, vilket är en grundläggande fråga som är involverad i SSDF-attack, men som ignoreras av de flesta av de tidigare studierna.
Zhang m.fl. REF föreslår en probabilistisk mjuk SSDF-attackmodell och upptäcker en kompromiss mellan destruktivitet och smygande.
2,141,208
Performance analysis of probabilistic soft SSDF attack in cooperative spectrum sensing
{'venue': None, 'journal': 'EURASIP Journal on Advances in Signal Processing', 'mag_field_of_study': ['Computer Science']}
7,110
Med den ökade populariteten av online video streaming kommer risken för denna tekniks efterföljande missbruk. Med ett antal fall noterade 2017 där individer har engagerat sig i olagliga eller policyintrång videoinnehåll, är digitala rättsmedicinska utövare ofta i uppdrag att undersöka den efterföljande "fingeravtryck" av sådana handlingar. Detta är ofta för att bestämma både innehållet i en ström i fråga, och, hur det har interagerats med, typiskt från en analys av data som finns på en misstänkts lokala enhet. Denna artikel ger en undersökning av de rättstekniska förfaranden som krävs för att identifiera och rekonstruera cachade videoströmsdata med hjälp av både YouTube och Facebook Live som exempel fallstudier. Strömrekonstruktionsmetoder erbjuds där resultaten visar att där en YouTube- och Facebook Live-video har spelats kan buffrad videoströmsdata återmonteras för att producera ett synligt videoklipp av innehåll.
I REF föreslås ett effektivt rättstekniskt förfarande för att identifiera och rekonstruera cachad online video stream data, såsom YouTube, Twitter, Facebook, WeChat, etc.
51,876,032
Reconstructing streamed video content: A case study on YouTube and Facebook Live stream content in the Chrome web browser cache
{'venue': 'Digital Investigation', 'journal': 'Digital Investigation', 'mag_field_of_study': ['Computer Science']}
7,111
Den gradvisa och bullriga anhopningen av bevis är en grundläggande del av beslutsfattandet, där buller spelar en nyckelroll som källa till variabilitet och fel. Orsaken till detta buller har dock aldrig fastställts. Vi utvecklade beslutsfattande uppgifter där sensoriska bevis levereras i slumpvis timade pulser, och analyserade de resulterande data med modeller som använder den rikt detaljerade informationen om varje försöks puls timing för att skilja mellan olika beslutsmekanismer. Denna analys gjorde det möjligt att mäta omfattningen av buller i ackumulatorns minne, skilt från buller i samband med inkommande sensoriska bevis. I våra uppgifter var ackumulatorns minne ljudlöst, för både råttor och människor. Däremot var tillägg av nya sensoriska bevis den främsta källan till variabilitet. Vi föreslår vår uppgift och modellering som en kraftfull metod för att avslöja interna egenskaper hos beslutsprocesser. D Avgöranden i verkliga livet måste ofta göras på grundval av bullriga eller opålitliga bevis. Ackumulerande bevis från en uppsättning bullriga observationer som gjorts över tiden gör det möjligt att i genomsnitt över olika bullerprover, vilket förbättrar uppskattningarna av den underliggande signalen. Denna princip är grunden för den inflytelserika klassen av "drift-diffusion" modeller (1-5), som i stort sett har tillämpats för att förklara en mängd olika fenomen i biologi (6-8). Ackumulationen innebär både att bevara ett minne av bevis som har samlats in hittills och att lägga till nya bevis till minnet. Ändå har ingen provning hittills skilt mellan buller i samband med var och en av dessa två komponenter. Vi utvecklade uppgifter där försökspersoner (människor och råttor) samtidigt presenterades med två pulståg, ett tåg som representerade "vänster" märkta pulser och det andra, "höger" märkta pulser. Vid slutet av varje försök var försökspersonerna tvungna att rapportera vilket av de två tågen som hade det större totala antalet pulser. Tidpunkten för pulserna var slumpmässig och varierade kraftigt, både inom och mellan enskilda prövningar (9, 10). Vi resonerade som att exakt känd puls timing skulle möjliggöra detaljerad modellering av försökspersonernas val på varje enskild försök, medan dess variabilitet skulle tillåta utforskning av stimulansutrymmet och skulle därmed ge statistisk kraft. I en auditiv version av uppgiften, utförd av tre människor och 19 råttor, var vänster puls tåg klick presenteras på en högtalare till vänster om ämnet, och höger puls tåg var klick presenteras på en talare till höger om sub- †Corresponding författaren. E-post: [email protected] Fig. 1................................................................ Psykofysiska uppgifter och sammanfattning av beteende. (A) Sequence av händelser i varje försök av rått hörsel uppgift. Efter ljusdebut från en ljusdiod (LED) i en mittport, placerade tränade råttor sin näsa i babord och "fixerade" sin näsa där under en fast tid tills ljuset släcktes (1 till 2 s). Tåg av slumpmässigt tidsinställda klick spelades samtidigt från vänster och höger frifältshögtalare under den sista delen av fixeringstiden. Efter nosfixering och ljud slutade gjorde råttan ett val, peking i vänster eller höger port för att indikera vilken sida som spelade fler klick. Människor utförde en liknande version av uppgiften på en dator medan de bar hörlurar. (B) Schematiskt diagram över en stimulans i den visuella pulsversionen av uppgiften, som utförs av människor på en dator. (C) Psykometriska kurvor (passar till en fyra-parameter logistisk funktion för varje försöksperson; se metoder) för försökspersoner på råtta. (D) Psykometriska kurvor, som i C, för människor. (E) Kronometriska kurvor för t.ex. råtta. Svårighet är märkt av förhållandet mellan klicka priser spelas på de två sidorna. För varje svårighet förbättras prestandan med längre stimulanstider. Dashed linjer visar de bäst lämpade modell förutsägelser för denna råtta, som beskrivs i texten. Den vertikala axeln visar genomsnittlig noggrannhet och 95% konfidensintervall (CI).
Beslutsuppgifterna är nu kopplade till sensoriska bevis som levereras i slumpvis timade pulser där buller spelar en nyckelroll som källan till variabilitet och fel REF.
13,098,239
Rats and Humans Can Optimally Accumulate Evidence for Decision-Making
{'venue': 'Science', 'journal': 'Science', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,112
Djupa neurala nätverk är kända för att vara sårbara för kontradiktoriska exempel som är noggrant skapade fall att orsaka modeller för att göra felaktiga förutsägelser. Även om kontradiktoriska exempel på 2D-bilder och CNN:er har studerats i stor utsträckning, har mindre uppmärksamhet ägnats åt 3D-data såsom punktmoln. Med tanke på många säkerhetskritiska 3D-applikationer som autonom körning är det viktigt att studera hur stötande punktmoln kan påverka nuvarande djupa 3D-modeller. I detta arbete föreslår vi flera nya algoritmer för att skapa kontradiktoriska punktmoln mot PointNet, ett brett använt djupt neuralt nätverk för punktmoln bearbetning. Våra algoritmer fungerar på två sätt: kontraarial punkt perturbation och kontraarial punktgenerering. För punkt perturbation, vi skiftar befintliga punkter negligerbart. För punktgenerering genererar vi antingen en uppsättning oberoende och spridda punkter eller ett litet antal (1-3) punktkluster med meningsfulla former som bollar och flygplan som kan döljas i det mänskliga psyket. Dessutom formulerar vi sex perturberingsmätningsmått anpassade till attackerna i punktmoln och genomför omfattande experiment för att utvärdera de föreslagna algoritmerna på ModelNet40 3D form klassificeringsdataset. Sammantaget våra attackalgoritmer uppnå en framgångsgrad högre än 99% för alla riktade attacker 1.
Xiang m.fl. REF föreslår flera algoritmer för att lägga till kontradiktoriska störningar till punktmoln genom att generera nya punkter eller störa befintliga punkter.
52,302,013
Generating 3D Adversarial Point Clouds
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
7,113
Abstract-Vi anser problemet med spektrumdelning mellan en uppsättning av enhets-till-enhet (D2D) länkar och flera samlokaliserade cellulära nätverk. Varje mobilnät styrs av en operatör som kan tillhandahålla tjänster till ett antal abonnenter. Varje D2D-länk kan antingen komma åt ett delband som innehas av en mobil abonnent eller få ett tomt delband för dess exklusiva användning. Vi inför ett nytt spektrumdelningsläge för D2D-kommunikation i cellulära nät genom att tillåta två eller flera D2D-länkar med exklusiv användning av delband att dela sina delband med varandra utan att rådfråga operatörerna. Vi etablerar en ny spelteoretisk modell som kallas Bayesian icke-överförbara verktyg överlappande koalitionsformation (BOCF) spel. Vi visar att vårt föreslagna spel kan användas för att modellera och analysera ovanstående spektrumdelningsproblem. Men vi observerar att kärnan i BOCF spelet kan vara tom, och vi får ett tillräckligt villkor för vilket kärnan är icke-tomma. Vi föreslår en hierarkisk matchande algoritm som kan upptäcka om det tillräckliga villkoret är uppfyllt och, om det är uppfyllt, uppnå en stabil och unik matchningsstruktur som sammanfaller med den överlappande koalitionsavtalet profil i kärnan av BOCF spelet.
I REF formulerades problemet med spektrumdelning mellan D2D-par och flera samlokaliserade cellulära nätverk som ett bayesiskt icke-överlåtbart verktyg överlappande koalitionsformationsspel.
2,374,737
A Bayesian Overlapping Coalition Formation Game for Device-to-Device Spectrum Sharing in Cellular Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science']}
7,114
I detta dokument presenteras en metod för ett ögonblicks inlärning av fingerfärdigheter och grepp om generation för nya objekt. En modell av varje grepptyp lärs ut från en enda kinestisk demonstration och flera typer lärs ut. Dessa modeller används för att välja och generera grepp för obekanta objekt. Både inlärnings- och generationsstegen använder ett ofullständigt punktmoln från en djupkamera, så ingen tidigare modell av en objektform används. Den lärda modellen är en produkt av experter, där experter är av två typer. Den första typen är en kontaktmodell och är en densitet över pose av en enda hand länk i förhållande till den lokala objektytan. Den andra typen är handkonfigurationsmodellen och är en densitet över helhandskonfigurationen. Grasp generation för ett obekant objekt optimerar produkten av dessa två modeller, vilket genererar tusentals grepp kandidater på under 30 sekunder. Metoden är robust till ofullständiga data i både tränings- och teststadier. När flera grepp typer anses metoden väljer den högsta liknande grepp över alla typer. I ett experiment bestod träningssetet av fem olika grepp och testsetet av 45 tidigare osynliga föremål. Framgångsfrekvensen för det första valet är 84,4% eller 77,7% om sju vyer eller en enda vy av testobjektet tas, respektive.
Kopicki m.fl. REF presenterade en metod för one-shot-inlärning av fingerfärdigheter och ta tag i generation för nya objekt.
17,818,496
One-shot learning and generation of dexterous grasps for novel objects
{'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Computer Science']}
7,115
Sammanfogning eller korrelerad filtrering av sensoravläsningar är en av de grundläggande frågeoperationerna i trådlösa sensornätverk (WSN). Även om medlemskap i centraliserade eller distribuerade databaser är ett väl utforskat problem, gå med bearbetning i WSNs har helt olika egenskaper och är mycket svårare att utföra på grund av bristen på statistik om sensoravläsningar och resursbegränsningar sensorn noder. Eftersom dataöverföring är order av magnitud som är dyrare än bearbetning på en sensor nod, i-nätverk bearbetning av anslutningar är viktigt. I detta dokument kartläggs de senaste teknikerna för att ansluta sig till genomförandet i WSN. Kraven och utmaningarna, gå med i typer och komponenter för att gå med i genomförandet beskrivs. De öppna frågorna för ytterligare forskning identifieras.
Processering i nätverk av anslutningar i WSNs har fått mycket uppmärksamhet REF.
5,898,077
In-Network Processing of Joins in Wireless Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science']}
7,116
Hippocampus är bland de första strukturer som drabbats vid Alzheimers sjukdom (AD). Hippocampal magnetisk resonanstomografi volym är en potentiell biomarkör för AD men hindras av begränsningarna i manuell segmentering. Vi föreslog en helautomatisk metod med probabilistiska och anatomiska föregångare för hippocampus segmentering. Probabilistisk information härleds från 16 unga kontroller och anatomisk kunskap modelleras med automatiskt upptäckta landmärken. Resultaten utvärderades tidigare genom jämförelse med manuell segmentering av data från de 16 unga friska kontrollerna, med en out leave-one-out-strategi, och åtta patienter med AD. Hög noggrannhet konstaterades för båda grupperna (volymfel 6 och 7 %, överlappning 87 respektive 86 %). I denna artikel användes metoden för att segmentera 145 patienter med AD, 294 patienter med lätt kognitiv nedsättning (MCI) och 166 äldre normala försökspersoner från databasen Alzheimers sjukdom Neuroimaging Initiative. På grundval av ett protokoll om kvalitativ bedömning kunde segmenteringen godtas i 94 % av fallen. Vi använde de erhållna hippocampal volymerna för att automatiskt diskriminera mellan AD-patienter, MCI-patienter, och äldre kontroller. Klassificeringen visade sig vara korrekt: 76 % av patienterna med AD och 71 % av MCI som omvandlades till AD före 18 månader klassificerades korrekt med avseende på äldre kontroller med endast hippocampal volym. V V C 2009 Wiley-Liss, Inc.
Chupin m.fl. I REF föreslogs en helautomatisk metod med probabilistiska och anatomiska föregångare för segmentering av hippocampus.
10,135,518
Fully Automatic Hippocampus Segmentation and Classification in Alzheimer’s Disease and Mild Cognitive Impairment Applied on Data From ADNI
{'venue': 'Hippocampus', 'journal': 'Hippocampus', 'mag_field_of_study': ['Psychology', 'Medicine']}
7,117
Vi presenterar PARBANK, en storskalig engelsk parafras datauppsättning som överträffar tidigare arbete i både kvantitet och kvalitet. Efter tillvägagångssättet av PARANMT (Wieting och Gimpel, 2018), utbildar vi en tjeckisk-engelsk neural maskinöversättning (NMT) system för att generera nya parafraser av engelska referens meningar. Genom att lägga till lexiska begränsningar till NMT-avkodningsförfarandet, kan vi dock producera flera högkvalitativa kvittenta parafraser per käll mening, vilket ger en engelsk parafras resurs med mer än 4 miljarder genererade polletter och uppvisar större lexisk mångfald. Med hjälp av mänskliga bedömningar visar vi också att PARA-BANKs parafraser förbättrar över PARANMT både semantisk likhet och fluens. Slutligen använder vi PARABANK för att träna en enspråkig NMT-modell med samma stöd för lexiskt anpassad avkodning för omskrivning av meningar.
Att lägga till lexikala begränsningar till produktionen kan också öka mångfalden REF.
57,825,777
ParaBank: Monolingual Bitext Generation and Sentential Paraphrasing via Lexically-constrained Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,118
Elasticitet-där system förvärva och frigöra resurser som svar på dynamiska arbetsbelastningar, samtidigt som betala endast för vad de behöver-är en driving egendom molnet dator. Kärnan i alla elastiska system är en automatiserad styrenhet. Detta papper behandlar elastisk kontroll för multi-tier application tjänster som allokerar och släpper resurser i diskreta enheter, såsom virtuella server instanser av förutbestämda storlekar. Det fokuserar på elastisk kontroll av lagringsnivån, där lägga till eller ta bort en lagringsnod eller "brick" kräver att balansera lagrade data över noderna. Lagringsnivån innebär nya utmaningar för elastisk styrning: ställdonets fördröjningar (lag) på grund av ombalansering, störningar i applikationer och sensormätningar samt behovet av att synkronisera flera styrelement, inklusive ombalansering. Vi har designat och implementerat en ny regulator för elastiska lagringssystem för att möta dessa utmaningar. Med hjälp av ett populärt distribuerat lagringssystem, Hadoop Distributed File System (HDFS)-under dynamisk Web 2.0 arbetsbelastning, visar vi hur styrenheten anpassar sig till arbetsbelastningsförändringar för att upprätthålla prestandamål effektivt i en pay-as-you-go molndatamiljö.
Lim m.fl. I REF föreslås ett elastiskt lagringssystem för HDFS för tillämpningar på flera nivåer.
10,063,951
Automated control for elastic storage
{'venue': "ICAC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,119
Abstrakt. Automatiserad sammansättning av webbtjänster eller processen för att skapa nya mervärdeswebbtjänster är en av de mest lovande utmaningarna inom forskningsområdet semantiska webbtjänster. Semantik är ett av de viktigaste inslagen i den automatiserade sammansättningen av webbtjänster eftersom en sådan process kräver rika maskin-förståeliga beskrivningar av tjänster som kan delas. Semantik gör det möjligt för webbtjänsten att beskriva sina funktioner och processer, men det finns fortfarande en del arbete att göra. Webbtjänster som beskrivs på funktionell nivå behöver ett formellt sammanhang för att utföra den automatiserade sammansättningen av webbtjänster. Den föreslagna modellen (dvs. Causal link matris) är en nödvändig utgångspunkt för att tillämpa problemlösning tekniker såsom regressionsbaserad sökning efter webbtjänst sammansättning. Modellen stödjer ett semantiskt sammanhang för att hitta en korrekt, komplett, konsekvent och optimal plan som lösning. I detta dokument presenteras en innovativ och formell modell för en AI-planeringsorienterad sammansättning.
Causal Link Matrix (CLM) REF ges av författarna, ger en solid bakgrund för semantisk webbtjänst sammansättning genom AI-tekniker.
4,812,098
A formal model for semantic web service composition
{'venue': 'IN ISWC’06', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,120
Vi presenterar en ny oövervakad inlärningsmetod för mänskliga handlingskategorier. En videosekvens representeras som en samling rumslig-temporala ord genom att extrahera mellanslag-tid räntepunkter. Algoritmen lär sig automatiskt sannolikhetsfördelningen av de rumslig-temporala orden och de mellanliggande ämnen som motsvarar mänskliga åtgärdskategorier. Detta uppnås genom att använda latenta ämnesmodeller såsom den probabilistiska Latent Semantic Analysis (pLSA) modellen och Latent Dirichlet Allocation (LDA). Vårt tillvägagångssätt kan hantera bullriga funktionspunkter som uppstår från dynamisk bakgrund och rörliga kameror på grund av tillämpningen av de probabilistiska modellerna. Med tanke på en ny videosekvens kan algoritmen kategorisera och lokalisera de mänskliga åtgärder som finns i videon. Vi testar vår algoritm på tre utmanande dataset: KTH human motion dataset, Weizmann human action dataset, och en ny dataset av konståkning åtgärder. Våra resultat återspeglar löftet om ett sådant enkelt tillvägagångssätt. Dessutom kan vår algoritm känna igen och lokalisera flera åtgärder i långa och komplexa videosekvenser som innehåller flera rörelser.
Niebles m.fl. REF använde probabilistic Latent Semantic Analysis (pLSA) modell och Latent Dirichlet Allocation (LDA) för att automatiskt lära sig sannolikhetsfördelningen av de rumsliga-temporala orden och de mellanliggande ämnen som motsvarar mänskliga åtgärdskategorier.
207,252,020
Unsupervised Learning of Human Action Categories Using Spatial-Temporal Words
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
7,121
Syftet med denna forskning är att analysera mönster av de produktnamn som används i thailändska ekonomiska nyheter och att hitta ledtrådar som kan användas för att identifiera produktnamnens gränser och deras kategorier. Det har konstaterats att mönstret för thailändska produktnamn är ganska varierande. Trettiotvå mönster finns i denna studie. Även om vissa ledtrådar som samlokalisering och sammanhanget med namn kan användas för att identifiera produktnamn, många av dem kan inte identifieras med dessa medel. Detta visar att uppgiften att produkten namngivna enhet erkännande är en intressant uppgift för thailändska språk bearbetning.
Det finns några verk på att analysera eller skapa dessa mönster; REF har analyserat mönster av de produktnamn som används i thailändska ekonomiska nyheter.
18,659,227
Product Name Identification and Classification in Thai Economic News
{'venue': 'NEWS@IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,122
Abstract-Vi anser att delvis observerbara kontrollproblem där det är potentiellt nödvändigt att utföra komplexa informationssamlande operationer för att lokalisera staten. Ett sätt att lösa dessa problem är att skapa planer i trosrymden, utrymmet för sannolikhetsfördelning över systemets underliggande tillstånd. Tro-rymd planen kodar en strategi för att utföra en uppgift samtidigt få information om nödvändigt. Till skillnad från de flesta metoder i litteraturen som förlitar sig på att representera trostillstånd som en Gaussisk distribution, har vi nyligen föreslagit en strategi för icke-gaussisk tro rymdplanering baserad på att lösa en icke-linjär optimering problem definieras i termer av en uppsättning stat prover [1]. I detta dokument visar vi att även om vår strategi gör optimistiska antaganden om innehållet i framtida observationer för planeringsändamål, är alla lågkostnadsplaner garanterade att få information på ett specifikt sätt under vissa förhållanden. Vi visar att så småningom, algoritmen är garanterad att lokalisera det verkliga tillståndet i systemet och att nå en målregion med hög sannolikhet. Även om algoritmens beräkningskomplexitet domineras av antalet prover som används för att definiera optimeringsproblemet, har vår konvergensgaranti så få som två prover. Dessutom visar vi empiriskt att det är onödigt att använda ett stort antal prover för att uppnå goda resultat.
Nyligen Platt et al. REF föreslog att samtidigt lokalisera och förstå kända objekt under osäkerhet genom att skapa planer i tro-rymd, utrymmet för sannolikhetsfördelning över det underliggande tillståndet i systemet.
6,365,834
Non-Gaussian belief space planning: Correctness and complexity
{'venue': '2012 IEEE International Conference on Robotics and Automation', 'journal': '2012 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,123
Trådlöst sensornätverk (WSN) spelar en viktig roll för militär avkänning och spårning, målspårning och miljöövervakning. För att fråga om nätverket för att få användbar information från var som helst och när som helst, måste vi integrera WSN i Internet som en del av Internet of Things (IoT). I detta fall är det en viktig uppgift att utforma ett tillträdeskontrollsystem som kan godkänna, autentisera och återkalla en användare för att komma åt WSN. I detta dokument föreslår vi ett heterogent signkrypteringssystem för att kontrollera användarnas åtkomstbeteende. Vi ger det formella säkerhetsbeviset för vår plan i den slumpmässiga orakelmodellen. En viktig egenskap hos vårt system är att låta en användare i en certifikatlös kryptografi (CLC) miljö skicka ett meddelande till en sensornod i en identitetsbaserad kryptografi (IBC) miljö. Vi ger ett tillträdeskontrollsystem för WSN i samband med sakernas internet med hjälp av det föreslagna signkrypteringssystemet. Jämfört med befintliga två passerkontrollsystem med hjälp av signcryption sänks den beräknade kostnaden för sensorer i vårt system med cirka 22% respektive 53%, och energiförbrukningen för sensorer i vårt system minskas med cirka 33% respektive 54%.
År 2016, Li et al. I REF föreslogs en heterogen teckenkryptering för att utforma ett system för tillträdeskontroll utan certifikat.
39,947,973
Practical access control for sensor networks in the context of the Internet of Things
{'venue': 'Comput. Commun.', 'journal': 'Comput. Commun.', 'mag_field_of_study': ['Computer Science']}
7,124
Vinter till sommar Fotografering till porträtt Attribut Genererad Input Output Input Output Bild. 1: Oparerad olika bild-till-bild översättning. (Lef t) Vår modell lär sig att utföra olika översättningar mellan två samlingar av bilder utan anpassade träningspar. (Rätt) Exempelstyrd översättning. Abstrakt. Bild-till-bild översättning syftar till att lära kartläggningen mellan två visuella domäner. Det finns två huvudutmaningar för många tillämpningar: 1) bristen på anpassade träningspar och 2) flera möjliga utgångar från en enda ingångsbild. I detta arbete presenterar vi ett tillvägagångssätt baserat på disentranged representation för att producera olika utgångar utan parade träningsbilder. För att uppnå mångfald föreslår vi att bilder inbäddas i två utrymmen: ett domäninvariantt innehållsutrymme som fångar upp delad information över olika domäner och ett domänspecifikt attribututrymme. Vår modell tar de kodade innehållsfunktionerna som extraheras från en given ingång och attributvektorerna som provtas från attribututrymmet för att producera olika utgångar vid testtillfället. För att hantera oparade träningsdata, introducerar vi en ny cross-cycle konsistens förlust baserat på disentangled representationer. Kvalitativa resultat visar att vår modell kan generera mångsidiga och realistiska bilder på ett brett spektrum av uppgifter utan parade träningsdata. För kvantitativa jämförelser mäter vi realism med användarstudie och mångfald med ett perceptuellt avståndsmått. Vi tillämpar den föreslagna modellen för domänanpassning och visar konkurrenskraftig prestanda jämfört med toppmoderna på datauppsättningarna MNIST-M och LineMod. lika lön
Dessutom Lee et al. REF föreslog att förbättra prestandan för bildöversättning utan parade tågdata genom att separera bilden på två utrymmen: ett domäninvariantt innehållsutrymme och ett domänspecifikt attribututrymme.
51,904,575
Diverse Image-to-Image Translation via Disentangled Representations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,125
Sammanfattning av denna webbsida: Kontrollreserver är kraftproduktions- eller förbrukningsenheter som säkerställer balans mellan tillgång och efterfrågan på el i realtid. I många länder drivs de genom en marknadsmekanism där företag lämnar anbud. Systemoperatören bestämmer de accepterade anbuden baserat på en optimeringsalgoritm. Vi utvecklar Vickrey-Clarke-Groves (VCG)-mekanismen för dessa elmarknader. Vi visar att alla fördelar med VCG-mekanismen, inklusive incitamentens förenlighet med jämvikten och resultatets effektivitet, kan garanteras på dessa marknader. Dessutom har vi förutsättningar för att säkerställa att samverkan och shill-budgivning inte är lönsamma. Våra resultat verifieras med numeriska exempel.
Sessa m.fl. Ref studerar VCG-mekanismen för elmarknader och härleder villkor för att säkerställa att samverkan och shill-budgivning inte är lönsamma.
2,305,338
Exploring Vickrey-Clarke-Groves Mechanism for Electricity Markets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Economics', 'Computer Science']}
7,126
Abstrakt. Automatisk hjärtljudsanalys har potential att förbättra diagnosen av hjärtklaffsjukdomar i primärvårdsfasen, liksom i länder där det varken finns expertis eller utrustning för att utföra ekokardiogram. En algoritm har tränats, på PhysioNet open-access hjärtljud databas, att klassificera hjärtljud som normala eller onormala. Först, hjärtat ljud segmenteras med hjälp av en öppen källkod algoritm baserad på en dold semi-Markov modell. Efter detta kännetecknas tid-frekvens beteendet hos en enda hjärtslag med hjälp av en ny implementation av den kontinuerliga våget transform, mel-frekvens ceptral koefficienter, och vissa komplexa åtgärder. Dessa funktioner hjälper till att upptäcka förekomsten av eventuella knot. Ett antal andra funktioner extraheras också för att karakterisera inter-beat beteende hjärtat ljud, som hjälper till att känna igen sjukdomar som arytmi. De extraherade funktionerna normaliseras och deras dimensionalitet reduceras med hjälp av huvudkomponentanalys. De används sedan som ingång till en fullt ansluten, två-dold-lager neurala nätverk, tränas av fel backpropagation, och regulariseras med DropConnect. Denna algoritm uppnådde en noggrannhet på 85,2% på testdata, som placerade tredje i FysioNet/Computing i Kardiologi utmaning (första plats fick 86,0%). Detta är dock orealistiskt av verkliga prestanda, eftersom testdata innehöll en datauppsättning (dataset-e) där normala och onormala hjärtljud spelades in med olika stetoskop. En 10-faldig korsvalideringsstudie om träningsdata (exklusive dataset-e) ger ett medelvärde på 74,8 %, vilket är en mer realistisk uppskattning av noggrannheten. Med dataset-e exkluderat från träningen gjorde algoritmen endast 58,1 % av testdatan.
På samma sätt använde Kay och Agarwal REF ett fullt uppkopplat, neuralt nätverk och uppnådde en poäng på 85.2.
1,153,380
DropConnected neural networks trained on time-frequency and inter-beat features for classifying heart sounds
{'venue': 'Physiological measurement', 'journal': 'Physiological measurement', 'mag_field_of_study': ['Medicine']}
7,127