Sunday 10 December 2017

Modellering trading system prestanda pdf nedladdning


Digital Combat Simulator World (DCS World) är ett fritt att spela digitalt slagfältspel. Vår dröm är att erbjuda den mest autentiska och realistiska simuleringen av militära flygplan, tankar och skepp. Den fria nedladdningen inkluderar ett stort uppdragsområde i Kaukasusregionen och Svarta havet som omfattar mycket av Georgien. Den innehåller också flygtiga ryska Sukhoi Su-25T jordattackflygplan och den kända WWII nordamerikanska TF-51D-fighteren. Nedladdningen kommer med en av de mest kraftfulla missionärerna som planerats någonsin, full nätverksspel och mer än 145 AI vapensystem, 113 markfordon och tåg, 16 fartyg och 73 AI-flygplan som gör att du kan planera och spela mycket sofistikerade uppdrag. DCS World är massivt utökningsbar genom ytterligare DCS-moduler samt användarbaserade tillägg och mods som du kan köpa och ladda ner från vår webbplats. DCS är en sann sandbox simulering som också är utformad för att täcka flera tidsperioder av intresse, såsom andra världskriget, Vietnam, Gulfkriget och andra. Som exempel på produkter som går fram till slutförandet för DCS, är Normandie 1944 i sista fasen av utvecklingen och Persiska viken ligger nära. DCS World är i grunden ett djupt, autentiskt och realistiskt simuleringsspel utformat för att erbjuda ett mer avslappnat spel som passar användaren och hans speciella nivå av erfarenhet och träning. Ambitionen är att hålla användare från nybörjare pilot hela vägen till den mest avancerade och sofistikerade operatören av sådana komplexa vapensystem som A-10C eller Mirage 2000C. Det enda nästa steget är den riktiga saken Tack för ditt stöd och för att tro på DCS. A-10C: Stone Shield är en historia-driven kampanj som sätter dig i cockpit av en A-10C Warthog som en USAF-pilot som tilldelats 445: e Air Expeditionary Wing. År 2015 har Abchazien, Sydossetien och Ryssland meddelat starten av Kaukasus-2015 militärövning. Intelligensanalyser avslöjar senare att övningarna faktiskt täcker för Rysslands styrkor som flyttar till Abkhaziens territorium och ytterligare eskalerande spänningar i Kaukasusregionen. Den 445: e Air Expeditionary Wing och den 6: e mekaniserade brigaden har deployerats till Georgien som ett svar från Nato för att motverka Rysslands militära aggression mot sin fridfulla granne. F-5E Aggressors BFM-kampanjen sätter dig i cockpit av en F-5E Tiger II, som en ny Aggressor-pilot med 65th Aggressor Squadron på Nellis Air Force Base. Baserat på verkliga processer kommer du att flyga som Red Air mot Blue Air Forces. Vid ankomst kommer du att flyga ett förtroendeflyg runt Nevada Test and Training Range (NTTR). Då kommer du att möta en serie utmanande Basic Fighter Maneuver (BFM) uppdrag mot liknande och disliknande flygplan. Dina motståndare inkluderar F-4E, F-5E, F-14A, F-15C, F-16C, FA-18C, M-2000C, MiG-29G, CF-188 och MiG-21. Operation Piercing Fury (OPF) är en historia driven kampanj som består av att du leder ett vidareutvecklat A-10C Warthog Hawg Flight i det georgiska operationsområdet (AO). Du kommer att tilldelas och ledas av Joint Special Operations Command som ger direkt stöd till konventionella och icke-konventionella koalitionskrafter i regionen mot extremistiska grupper i Al-Doran och Special Purpose Islamic Army. Dina färdigheter kommer att testas när du utför avstängningsflygning (CAS), bekämpa sökning och räddning, hjälpa till med Capture-or-Kill-uppdrag och tillhandahålla CAS för övergrepp mot luften av specialstyrkor i hela regionen. Kampanjen sätter dig direkt i åtgärden med många uppdrag baserade på verkliga scenarier, operationer och taktik. OPF gör det möjligt för dig att uppleva det unika perspektivet att du befinner dig i en kampzon baserad på realistisk kommunikation, kraftskydd, framåtriktade baser, bekämpa utposter och insikt från kampanjskaparen Ranger79, en amerikansk flygvapenbekämpningsveteran av Operation Joint Forge, Operation Southern Titta, fungera bestående frihet, och fungera irakisk frihet. Känn adrenalinhoppet som ger nära Air Support i AO Museum Relic är en historia driven kampanj som äger rum mellan de två små fiktiva länderna Matova och Obristen. När deras krig sträcker sig in i sitt femte år, känner båda nationerna ansträngningen att inte kunna fylla på några av sina förlorade fordon. Du kommer att flyga som ett tecken som i början av kriget var bara en civil. Men efter att ha sett den svåra situationen som hans land står inför bestämmer han sig för att anlita sig i Matova Army Air Corp. Med sina anteckningsböcker tar han med sig också hans personliga flygplan som han donerat till museet för år sedan. P-51D High Stakes-kampanjen P-51D: High Stakes-kampanjen är en enstaka, historia-driven kampanj för DCS: P-51D Mustang. Kampanjens förutsättning är att en kraftfull affärsman och spelare som heter Maslov har anställt pilot-för-hyra pilot Vasily Sinitsa med löften om berg av pengar. I gengäld behöver Vasily flyga och behärska den ärafulla Mustangen över en sträng av 15 uppdrag som kommer att testa sina färdigheter. Maslov kommer att lägga Vasily i större utsträckning när kampanjen fortskrider och Vasily kommer att behöva använda alla sina kunskaper för att inte bara uppfylla sina tilldelade uppgifter utan också att rädda sitt liv och i längden sin ära. För att fullt ut kunna fullfölja varje uppdrag och fortsätta till nästa, kommer Vasily att landa sin Mustang vid den tilldelade punkten efter varje uppdrags avslutning. Dessutom beror Vasily på att ta hand om sin Mustang och minimera skadorna för att fortsätta genom berättelsen. Alla Vasilys uppdrag innehåller detaljerade briefings och uppdragskartografi. Varje uppdrag innehåller också kneeboard briefing och kartor. Är du redo att gå med Vasily på den här episka resan? Träningsplan Arkitektur Trading Floor Architecture Architecture Översikt Ökad konkurrens, högre marknadsvolymer och nya krav på reglering är några drivkrafter bakom branschförändringar. Företagen försöker behålla sin konkurrenskraft genom att ständigt byta sina handelsstrategier och öka handelshastigheten. En livskraftig arkitektur måste innehålla den senaste tekniken från både nätverks - och applikationsdomäner. Det måste vara modulärt för att ge en hanterbar väg att utveckla varje komponent med minimal störning av det övergripande systemet. Därför bygger den arkitektur som föreslås av detta papper ut på en serviceram. Vi undersöker tjänster som ultra-low latency messaging, latent övervakning, multicast, databehandling, lagring, data och applikationsvirtualisering, handelsförmåga, handelsmobilitet och tunn klient. Lösningen på de komplexa kraven på nästa generations handelsplattform måste byggas med en holistisk tankegång, som överstiger gränserna för traditionella silor som företag och teknik eller applikationer och nätverk. Det här dokumentets huvudsyfte är att tillhandahålla riktlinjer för att bygga en plattform för extremt låg latitudhandel samtidigt som man optimerar den råa genomströmningen och meddelandekvoten för både marknadsdata och FIX-handelsorder. För att uppnå detta föreslår vi följande teknologier för latent minskning: Höghastighets inter-connectInfiniBand eller 10 Gbps-anslutning för handelsklustret Höghastighetsmeddelandebuss Programacceleration via RDMA utan att omprogrammera omkodning Övervakning i realtid och latent övervakning och omriktning handelstrafik till vägen med minimal latens Branschutvecklingar och utmaningar Nästa generations handelsarkitekturer måste svara på ökade krav på hastighet, volym och effektivitet. Volymen av optionsmarknadsdata förväntas fördubblas efter introduktionen av optioner örehandel under 2007. Det finns också lagkrav på bästa möjliga utförande, vilket kräver uppdateringar av hanteringspris till priser som närmar sig 1M msgsec. för utbyten. De kräver också synlighet i dataens färskhet och bevis på att klienten har bäst möjliga utförande. På kort sikt är handels - och innovationshastigheten viktiga differentierare. Ett ökande antal affärer hanteras av algoritmiska handelsapplikationer placerade så nära som möjligt till handelsutföringsplatsen. En utmaning med dessa motorer med quotblack-boxquot är att de förstör volymökningen genom att utfärda order endast för att avbryta dem och skicka in dem igen. Orsaken till detta beteende är brist på synlighet till vilken plats som bäst utför. Den mänskliga näringsidkaren är nu en delfinansiell ingenjör, en kvotantkvot (kvantitativ analytiker) med programmeringsförmåga, som kan anpassa handelsmodeller på flyg. Företagen utvecklar nya finansiella instrument som väderderivat eller cross-asset-klasshandel och de måste distribuera de nya applikationerna snabbt och på skalbart sätt. På lång sikt bör konkurrensdifferentiering komma från analys, inte bara kunskap. Morgondagens stjärnhandlare tar risk, uppnår sann klientinsikt och konsekvent slår marknaden (källa IBM: www-935.ibmservicesusimcpdfge510-6270-trader. pdf). Affärsmotståndskraft har varit ett huvudsakligt bekymmer för handelsföretag sedan den 11 september 2001. Lösningar inom detta område sträcker sig från redundanta datacentraler belägna i olika geografiska områden och kopplade till flera handelsplatser till virtuella näringslösningar som erbjuder krafthandlare det mesta av funktionaliteten hos ett handelsgolv på en avlägsen plats. Finansindustrin är en av de mest krävande när det gäller IT-krav. Branschen upplever en arkitektonisk förändring mot Service Oriented Architecture (SOA), webbtjänster och virtualisering av IT-resurser. SOA utnyttjar ökningen av nätverkshastigheten för att möjliggöra dynamisk bindning och virtualisering av programvarukomponenter. Detta möjliggör skapandet av nya applikationer utan att förlora investeringen i befintliga system och infrastruktur. Konceptet har potential att revolutionera hur integrationen är klar, vilket möjliggör betydande minskningar av komplexiteten och kostnaden för sådan integration (gigaspacesdownloadMerrilLynchGigaSpacesWP. pdf). En annan trend är konsolidering av servrar i datacenter-servergårdar, medan näringsidkare har endast KVM-tillägg och ultra-tunna klienter (t. ex. SunRay och HP-bladlösningar). High-speed Metro Area Networks möjliggör marknadsdata att vara multicast mellan olika platser, vilket möjliggör virtualisering av handelsgolvet. Högnivåarkitektur Figur 1 visar arkitekturen på en hög nivå i en handelsmiljö. Ticker-anläggningen och de algoritmiska handelsmotorerna är belägna i högpresterande handelskluster i företagets datacenter eller på utbytet. De mänskliga handlarna är belägna i användarområdet för slutanvändare. Funktionellt finns det två applikationskomponenter i företagets handelsmiljö, förlag och abonnenter. Meddelandebussen ger kommunikationsvägen mellan utgivare och abonnenter. Det finns två typer av trafik som är specifika för en handelsmiljö: Market DataCarries prissätter information för finansiella instrument, nyheter och annan mervärdesinformation, som analytics. Det är enriktad och mycket latent känslig, levereras vanligtvis över UDP multicast. Det mäts i updatessec. och i Mbps. Marknadsdata strömmar från en eller flera externa flöden, som kommer från leverantörer av marknadsdata som börser, dataaggregatörer och ECN. Varje leverantör har sitt eget marknadsdataformat. Uppgifterna mottas av foderhanterare, specialiserade applikationer som normaliserar och rengör data och skickar sedan till datakonsumenter, såsom prissättningsmotorer, algoritmiska handelsapplikationer eller mänskliga handlare. Säljesidens företag skickar också marknadsdata till sina kunder, inköpsföretag såsom fonder, hedgefonder och andra kapitalförvaltare. Vissa inköpsföretag kan välja att ta emot direktmatar från börser, vilket minskar latens. Figur 1 Handelsarkitektur för ett Köp SideSell sidfirman Det finns ingen branschstandard för marknadsdataformat. Varje utbyte har sitt proprietära format. Finansiella innehållsleverantörer som Reuters och Bloomberg sammanställer olika källor till marknadsdata, normaliserar den och lägger till nyheter eller analyser. Exempel på konsoliderade flöden är RDF (Reuters Data Feed), RWF (Reuters Wire Format) och Bloomberg Professional Services Data. För att leverera lägre latensmarknadsdata har båda leverantörerna släppt realtidsdata för marknadsdata som är mindre bearbetade och har mindre analyser: Bloomberg B-PipeWith B-Pipe, kopplar Bloomberg sina marknadsdata från deras distributionsplattform eftersom en Bloomberg terminal behövs inte för att få B-rör. Wombat och Reuters Feed Handlers har meddelat stöd för B-Pipe. Ett företag kan besluta att ta emot flöden direkt från ett utbyte för att minska latensen. Förhöjningarna i överföringshastigheten kan vara mellan 150 millisekunder och 500 millisekunder. Dessa flöden är mer komplexa och dyrare och företaget måste bygga och underhålla sin egen tickerplanta (financialetechfeaturedshowArticle. jhtmlarticleID60404306). Trading Orders Denna typ av trafik bär de faktiska handlarna. Det är dubbelriktat och mycket latent känsligt. Det mäts i messagessec. och Mbps. Ordererna härstammar från en köpsidan eller säljarsidan och skickas till handelsplatser som en Exchange eller ECN för utförande. Det vanligaste formatet för ordertransport är FIX (Financial Information eXchangefixprotocol. org). De applikationer som hanterar FIX-meddelanden kallas FIX-motorer och de kopplar samman med orderhanteringssystem (OMS). En optimering till FIX kallas FAST (Fix Adapted for Streaming), som använder ett komprimeringsschema för att minska meddelandlängden och i själva verket minska latensen. FAST riktar sig mer till leverans av marknadsdata och har potential att bli en standard. FAST kan också användas som komprimeringsschema för proprietära marknadsdataformat. För att minska latensen kan företagen välja att upprätta direktmarknadsåtkomst (DMA). DMA är den automatiserade processen att dirigera en värdepappersorder direkt till en exekutiv plats, vilket därför undviker ingripande från en tredje part (towergroupresearchcontentglossary. jsppage1ampglossaryId383). DMA kräver en direkt anslutning till exekveringsplatsen. Meddelandebussen är mellanprogramvara från leverantörer som Tibco, 29West, Reuters RMDS, eller en öppen källplattform som AMQP. Meddelandebussen använder en pålitlig mekanism för att leverera meddelanden. Transporten kan ske via TCPIP (TibcoEMS, 29West, RMDS och AMQP) eller UDPmulticast (TibcoRV, 29West och RMDS). Ett viktigt begrepp i meddelandedistribution är den quottopiska strömmen, som är en delmängd av marknadsdata definierad av kriterier som tickersymbol, industri eller en viss korg av finansiella instrument. Prenumeranterna går med i ämnesgrupper som är mappade till ett eller flera delämnen för att endast ta emot relevant information. Tidigare fick alla handlare alla marknadsdata. Vid nuvarande trafikvolymer skulle detta vara suboptimalt. Nätverket spelar en viktig roll i handelsmiljön. Marknadsdata överförs till handelsgolvet där de mänskliga handlarna är belägna via ett höghastighetsnätverk i Campus eller Metro. Hög tillgänglighet och låg latens samt hög genomströmning är de viktigaste mätvärdena. Högpresterande handelsmiljö har de flesta komponenterna i datacenterets gård. För att minimera latensen måste de algoritmiska handelsmotorerna lokaliseras i närheten av matningshanterare, FIX-motorer och orderhanteringssystem. En alternativ implementeringsmodell har de algoritmiska handelssystemen som finns i en utbyte eller en tjänsteleverantör med snabb anslutning till flera utbyten. Distributionsmodeller Det finns två implementeringsmodeller för en högpresterande handelsplattform. Företag kan välja att ha en blandning av de två: Datacentret för handelsföretaget (Figur 2) Det här är den traditionella modellen, där en fullutvecklad handelsplattform utvecklas och underhålls av företaget med kommunikationslänkar till alla handelsplatser. Latency varierar med hastigheten på länkarna och antalet humle mellan företaget och arenorna. Figur 2 Traditionell deployeringsmodell Samlokalisering på handelsplatsen (utbyte, finansiella tjänsteleverantörer) (Figur 3) Handelsföretaget utövar sin automatiserade handelsplattform så nära som möjligt för genomförandeplatserna för att minimera latens. Figur 3 Hosted Deployment Model Services-Oriented Trading Architecture Vi föreslår en serviceorienterad ram för att bygga nästa generations handelsarkitektur. Detta tillvägagångssätt ger en konceptuell ram och en implementeringsväg baserad på modularisering och minimering av interdependenser. Denna ram ger företagen en metod för att: Utvärdera deras nuvarande tillstånd när det gäller tjänster Prioritera tjänster baserat på deras värde till verksamheten Utveckla handelsplattformen till önskat tillstånd med ett modulärt tillvägagångssätt. Den högpresterande handelsarkitekturen bygger på följande tjänster, som definierad av tjänstearkitekturramen som representeras i Figur 4. Figur 4 Service Architecture Framework for High Performance Trading Ultra-Low Latency Messaging Service Den här tjänsten tillhandahålls av meddelandebussen, som är ett mjukvarusystem som löser problemet med att ansluta många-till - många applikationer. Systemet består av: En uppsättning av fördefinierade meddelandeskeman En uppsättning gemensamma kommandobesked En gemensam applikationsinfrastruktur för att skicka meddelanden till mottagare. Den delade infrastrukturen kan baseras på en budskapsmäklare eller på en publiceringsmodell. De viktigaste kraven för nästa generations meddelandebuss är (källa 29West): Lägsta möjliga latens (t. ex. mindre än 100 mikrosekunder) Stabilitet under tung belastning (t. ex. mer än 1,4 miljoner msgsec.) Kontroll och flexibilitet (frekvenskontroll och konfigurerbara transporter) Där är insatser inom branschen att standardisera meddelandebussen. Advanced Message Queuing Protocol (AMQP) är ett exempel på en öppen standard som är känd av J. P. Morgan Chase och stöds av en grupp leverantörer som Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West och iMatix. Två av de viktigaste målen är att ge en enklare väg till interoperabilitet för applikationer skrivna på olika plattformar och modularitet så att middleware enkelt kan utvecklas. I mycket generella termer är en AMQP-server analog med en e-postserver med varje växel som fungerar som ett meddelandeöverföringsagent och varje meddelandekö som en brevlåda. Bindningarna definierar routingstabellerna i varje överföringsagent. Utgivare skickar meddelanden till enskilda överföringsagenter, som sedan leder meddelandena till brevlådor. Konsumenter tar meddelanden från brevlådor, vilket skapar en kraftfull och flexibel modell som är enkel (källa: amqp. orgtikiwikitiki-index. phppageOpenApproachWhyAMQP). Latency Monitoring Service De viktigaste kraven för den här tjänsten är: Måttlig mätning under millisekunder Sikt i närheten av realtid utan att lägga till latent handelstrafik Förmåga att differentiera applikationsfördröjning från nätverkstransittidslängden Möjlighet att hantera höga meddelandehastigheter Ge ett programmatiskt gränssnitt för handelsapplikationer för att ta emot latentdata, vilket möjliggör för algoritmiska handelsmotorer att anpassa sig till förändrade förhållanden Korrelera nätverkshändelser med applikationshändelser för felsökningsändamål Latency kan definieras som tidsintervallet mellan när en handelsorder skickas och när samma order erkänns och ageras av den mottagande parten. Att adressera latensfrågan är ett komplext problem som kräver en helhetssyn som identifierar alla latentkällor och tillämpar olika teknologier på olika lager i systemet. Figur 5 visar hur många komponenter som kan introducera latens vid varje lager av OSI-stacken. Den kartlägger också varje latent källa med en möjlig lösning och en övervakningslösning. Denna lagrade strategi kan ge företagen ett mer strukturerat sätt att angripa latensfrågan, varigenom varje komponent kan betraktas som en tjänst och behandlas konsekvent över företaget. Att behålla en korrekt mätning av det dynamiska tillståndet för detta tidsintervall över alternativa rutter och destinationer kan vara till stor hjälp vid taktiska handelsbeslut. Möjligheten att identifiera den exakta platsen för förseningar, oavsett om det ligger i kundernas nätverksnätverk, centralhanteringsnavet eller transaktionsansökningsnivån, avgör väsentligen tjänsteleverantörernas förmåga att uppfylla sina avtal om handelstjänstenivå. För köpsidor och säljsidor, liksom för marknadsdata-syndikatorer, innebär snabb identifiering och borttagning av flaskhalsar direkt till ökade handelsmöjligheter och intäkter. Figur 5 Latency Management Architecture Cisco Lågtidsövervakningsverktyg Traditionella nätverksövervakningsverktyg fungerar med några minuter eller sekunder granularitet. Nästa generations handelsplattformar, särskilt de som stöder algoritmisk handel, kräver latenser mindre än 5 ms och extremt låga nivåer av paketförlust. På ett Gigabit LAN kan en 100 ms mikroburst orsaka att 10 000 transaktioner går förlorade eller för mycket försenade. Cisco erbjuder sina kunder ett antal verktyg för att mäta latens i en handelsmiljö: Bandwidth Quality Manager (BQM) (OEM från Corvil) Cisco AON-baserad FSMS Bandwidth Quality Manager Bandwidth Quality Manager (BQM) 4.0 är en nästa generations nätverksapplikations prestationshanteringsprodukt som gör det möjligt för kunder att övervaka och tillhandahålla sitt nätverk för kontrollerade nivåer av latens och förlustprestanda. Medan BQM inte uteslutande är inriktad på handelsnätverk, gör dess mikrosekundsiktighet i kombination med intelligenta bandbreddsbeställningsfunktioner den idealisk för dessa krävande miljöer. Cisco BQM 4.0 implementerar en bred uppsättning patenterade och patentsökta trafikmätningar och nätverksanalyssteknologier som ger användaren oöverträffad synlighet och förståelse för hur man optimerar nätverket för maximal applikationsprestanda. Cisco BQM stöds nu på produktfamiljen av Cisco Application Deployment Engine (ADE). Cisco ADE-produktfamiljen är den plattform som valts för Cisco-nätverkshanteringsprogram. BQM-fördelar Cisco BQM-mikrosynlighet är möjligheten att upptäcka, mäta och analysera latens-, jitter - och förlustinducerande trafikhändelser ner till mikrosekundnivåer av granularitet med per paketupplösning. Detta gör det möjligt för Cisco BQM att upptäcka och bestämma effekterna av trafikhändelser på nätverksfördröjning, jitter och förlust. Kritisk för handelsmiljöer är att BQM kan stödja latens-, förlust - och jittermätningar envägs för både TCP och UDP (multicast) - trafik. Det innebär att det rapporteras smidigt för både handelstrafik och marknadsdata. BQM tillåter användaren att ange en omfattande uppsättning trösklar (mot mikroburst aktivitet, latens, förlust, jitter, utnyttjande, etc.) på alla gränssnitt. BQM driver sedan en bakgrundsrullande paketinspelning. När en tröskelöverträdelse eller annan potentiell prestandaförstöring inträffar, utlöser den Cisco BQM för att lagra paketupptaget till disken för senare analys. Detta gör det möjligt för användaren att undersöka i detalj både applikationstrafiken som påverkades av prestandaförstöring (quotting victimsquot) och trafiken som orsakade prestandaförstörelsen (quotthe culpritsquot). Detta kan avsevärt minska tiden för att diagnostisera och lösa problem med nätverksprestanda. BQM kan också tillhandahålla detaljerad bandbredd och kvalitet av service (QoS) policyrådgivning, som användaren direkt kan tillämpa för att uppnå önskat nätverksprestanda. BQM-mätningar Illustrerad För att förstå skillnaden mellan några av de mer konventionella mätteknikerna och synligheten som BQM tillhandahåller kan vi titta på några jämförelsediagram. I den första uppsättningen grafer (Figur 6 och Figur 7) ser vi skillnaden mellan latensen mätt av BQMs Passive Network Quality Monitor (PNQM) och latensen mätt genom att injicera pingpaket var 1 sekund i trafikströmmen. I Figur 6. ser vi latensen rapporterad av 1-sekunders ICMP-pingpaket för verklig nätverkstrafik (den delas upp med 2 för att ge en uppskattning för envägsfördröjningen). Det visar förseningen bekvämt under ca 5 ms för nästan hela tiden. Figur 6 Latency Rapporterad av 1-sekunders ICMP Ping-paket för verklig nätverkstrafik I Figur 7 ser vi den latens som rapporteras av PNQM för samma trafik samtidigt. Här ser vi att vi får en radikalt annorlunda bild genom att mäta envägsfördröjningen för de faktiska applikationspaketen. Här ses latensen att sväva omkring 20 ms, med enstaka sprängor långt högre. Förklaringen är att eftersom ping bara skickar paket varje sekund misslyckas det hela tiden av applikationstrafiken. Faktum är att pingresultatet typiskt endast indikerar fördröjningsfördröjning för rundtur snarare än realistisk applikations latens över nätverket. Figur 7 Latency Rapporterad av PNQM för verklig nätverkstrafik I det andra exemplet (Figur 8) ser vi skillnaden i rapporterade länkbelastnings - eller mättnadsnivåer mellan en 5 minuters genomsnittlig vy och en 5 ms mikroburstvy (BQM kan rapportera om mikroburst ner till ungefär 10-100 nanosekunds noggrannhet). Den gröna linjen visar att det genomsnittliga utnyttjandet på 5-minutersmedelvärdet är lågt, kanske upp till 5 Mbitss. Den mörkblå plot visar 5ms mikroburstaktivitet som når mellan 75 Mbitss och 100 Mbitss, LAN-hastigheten effektivt. BQM visar denna nivå av granularitet för alla applikationer och det ger också tydliga regler för att göra det möjligt för användaren att kontrollera eller neutralisera dessa mikroburst. Figur 8 Skillnad i rapporterad länkbelastning mellan en 5-minuters genomsnittlig vy och en 5 ms Microburst View-BQM-distribution i handelsnätverket Figur 9 visar en typisk BQM-utplacering i ett handelsnätverk. Figur 9 Typisk BQM-distribution i ett handelsnätverk BQM kan sedan användas för att svara på följande typer av frågor: Är några av mina Gigabit LAN-kärnlänkar mättade i mer än X millisekunder. Är detta orsakat förlust Vilka länkar skulle mest dra nytta av en uppgradering till Etherchannel eller 10 Gigabit-hastigheter Vilken applikationstrafik orsakar mättnaden av mina 1 Gigabit-länkar? Har någon av marknadsdata upplevt end-to-end-förlust. Hur mycket ytterligare latens gör erfarenheten av failover datacenter. Är den här länken korrekt anpassad för att hantera mikroburst. Är mina handlare Få låga latensuppdateringar från marknadsdistributionsfördelningen Ska de se några förseningar som är större än X millisekunder Att kunna svara på dessa frågor sparar enkelt och effektivt tid och pengar när de kör handelsnätverket. BQM är ett viktigt verktyg för att öka synligheten i marknadsdata och handelsmiljöer. Det ger granulära end-to-end latencymätningar i komplexa infrastrukturer som upplever stor volymdatörrörelse. Effektivt detektering av mikroburst i nivåer under millisekunder och mottagande av expertanalys vid en viss händelse är ovärderlig för handelsgolvarkitekter. Rekommendationer om smarta bandbreddsbestämmelser, såsom dimensionering och vad-om-analys, ger ökad smidighet för att reagera på volatila marknadsförhållanden. Eftersom explosionen av algoritmisk handel och ökande meddelandekurser fortsätter, ger BQM, i kombination med sitt QoS-verktyg, möjligheten att implementera QoS-policyer som kan skydda kritiska handelsapplikationer. Cisco Financial Services Latency-övervakningslösning Cisco och Trading Metrics har samarbetat om latent övervakningslösningar för FIX-orderflöde och övervakning av marknadsdata. Cisco AON-tekniken är grunden för en ny klass av nätverksbaserade produkter och lösningar som hjälper till att slå samman intelligenta nätverk med applikationsinfrastruktur, baserad på antingen serviceorienterade eller traditionella arkitekturer. Trading Metrics är en ledande leverantör av analysprogramvara för nätverksinfrastruktur och övervakningsändamål för övervakning av program (tradingmetrics). Cisco AON Financial Services Latency Monitoring Solution (FSMS) korrelerade två typer av händelser vid observationspunkten: Nätverkshändelser korrelerade direkt med sammanhängande hantering av hantering av meddelanden Handelsorderflöde och matchande marknadsuppdateringshändelser Med hjälp av tidsstämplar hävdade vid infångningspunkten i nätverksanalys i realtid av dessa korrelerade dataströmmar möjliggör exakt identifiering av flaskhalsar över infrastrukturen medan en handel utförs eller marknadsdata distribueras. Genom att övervaka och mäta latens tidigt i cykeln kan finansiella företag fatta bättre beslut om vilket nätverkstjänst och vilken förmedlare, marknad eller motpartyto som väljer att dirigera handelsorder. På samma sätt möjliggör denna kunskap en mer strömlinjeformad tillgång till uppdaterad marknadsinformation (aktiekurser, ekonomiska nyheter etc.), vilket är en viktig grund för att initiera, dra tillbaka eller driva marknadsmöjligheter. Komponenterna i lösningen är: AON-hårdvara i tre formfaktorer: AON-nätverksmodul för Cisco 2600280037003800 routrar AON Blade för Cisco Catalyst 6500-serien AON 8340 Appliance Trading Metrics MampA 2.0-mjukvaran, som tillhandahåller övervaknings - och varningsapplikationen, visar latensgrafer på en instrumentpanel och utfärdar varningar när avmattningar uppstår (tradingmetricsTMbrochure. pdf). Figur 10 AON-baserad FIX-övervakning av övervakning Cisco IP SLA Cisco IP SLA är ett inbyggt nätverkshanteringsverktyg i Cisco IOS som tillåter routrar och växlar att generera syntetiska trafikströmmar som kan mätas för latens, jitter, paketförlust och andra kriterier (ciscogoipsla ). Två nyckelbegrepp är källan till den genererade trafiken och målet. Båda dessa har en IP SLA-kvotresponder, citationstecken som har ansvaret att tidstämpla kontrolltrafiken innan den erhålls och returneras av målet (för en rundtursmätning). Olika trafiktyper kan erhållas inom IP SLA och de är inriktade på olika mätvärden och rikta olika tjänster och applikationer. UDP-jitteroperationen används för att mäta envägs - och avgångsfördröjningar och rapportera variationer. Eftersom trafiken är tidsstämplad på både sändnings - och målanordningar med hjälp av responderfunktionen karakteriseras omgångstidsfördröjningen som deltaet mellan de två tidsstämplarna. En ny funktion introducerades i IOS 12.3 (14) T, IP SLA Sub Millisecond Reporting, vilket gör att tidsstämplar kan visas med en upplösning i mikrosekunder, vilket ger en grad av granularitet som inte tidigare var tillgänglig. Denna nya funktion har nu gjort IP SLA relevant för campusnätverk där nätverksfördröjningen normalt ligger inom intervallet 300-800 mikrosekunder, och möjligheten att upptäcka trender och spikar (korta trender) baserat på mikrosekundskalularitetsräknare är ett krav för kunder som är engagerade i tid - sensitiva elektroniska handelsmiljöer. Som ett resultat är IP SLA nu övervägt av betydande antal finansiella organisationer eftersom de alla står inför krav på att: Rapportera baseline latens för sina användare. Trendens baseline latens över tiden Snabb reagera på trafikbrott som orsakar förändringar i den rapporterade latensen Sub - Millisekunderrapportering är nödvändig för dessa kunder, eftersom många campus och backbones levererar för närvarande under en sekund av latens över flera switchhops. Elektroniska handelsmiljöer har i allmänhet arbetat för att eliminera eller minimera alla områden av enhet och nätverksfördröjning för att leverera snabb orderuppföljning till verksamheten. Att rapportera att nätverkssvarstiderna anges under en millisekundskvot är inte längre tillräcklig för att de latitudmätningar som rapporteras över ett nätverkssegment eller backbone måste vara närmare 300-800 mikrosekunder med en grad av upplösning på 100 igrave sekunder. IP SLA har nyligen lagt till stöd för IP-multicast-testströmmar, som kan mäta marknadsdatalyser. En typisk nätverkstopologi visas i Figur 11 med IP SLA-skuggrutorna, källorna och svararna. Figur 11 IP SLA Distribution Computing Services Datatjänster täcker ett brett spektrum av teknologier med målet att eliminera minne och CPU-flaskhalsar som skapats genom bearbetning av nätverkspaket. Handelsapplikationer förbrukar stora volymer av marknadsdata och servrarna måste ägna resurser till att bearbeta nätverkstrafik istället för applikationsbehandling. TransportbearbetningAn höga hastigheter kan nätverkspaketbearbetning konsumera en betydande mängd server-CPU-cykler och minne. En etablerad tumregel anger att 1Gbps av nätverksbandbredd kräver 1 GHz processor kapacitet (källa Intel vitbok på IO acceleration inteltechnologyioacceleration306517.pdf). Mellanliggande buffertkopiering Vid en konventionell nätverksstapimplementering måste data kopieras av CPU mellan nätverksbuffertar och applikationsbuffertar. Detta överhuvudtaget förvärras av det faktum att minneshastigheten inte har hållit på med ökningar i CPU-hastigheter. Processorer som Intel Xeon närmar sig till exempel 4 GHz, medan RAM-chips svänger runt 400 MHz (för DDR 3200-minne) (källa Intel inteltechnologyioacceleration306517.pdf). Kontextomkoppling Varje gång ett enskilt paket behöver behandlas, utför CPU en kontextomkopplare från applikationskontext till nätverkstrafik. Denna överliggande kostnad kan minskas om omkopplaren skulle inträffa endast när hela applikationsbufferten är klar. Figur 12 Källor för överhead i datacenterservrar TCP Offload Engine (TOE) Avlastar transportprocessorns cykler till NIC. Flyttar TCPIP-protokollstackbuffertkopior från systemminne till NIC-minne. Remote Direct Memory Access (RDMA) Aktiverar en nätverksadapter för att överföra data direkt från applikation till applikation utan att involvera operativsystemet. Eliminerar mellanliggande och applikationsbuffertkopior (minnesbandbreddskonsumtion). Kernel bypass Direkt användarnivå tillgång till hårdvara. Minskar dramatiskt programkonverteringsomkopplarna. Figur 13 RDMA och Kernel Bypass InfiniBand är en punkt-till-punkt (switchad textil) dubbelriktad seriekommunikationslänk som implementerar RDMA, bland andra funktioner. Cisco erbjuder en InfiniBand switch, Server Fabric Switch (SFS): ciscoapplicationpdfenusguestnetsolns500c643cdccont0900aecd804c35cb. pdf. Figur 14 Typiska SFS Distribution Trading-applikationer drar nytta av minskningen av latens och latensvariabilitet, vilket bevisas av ett test utfört med Cisco SFS och Wombat Feed Handlers av Stac Research: Application Virtualization Service Avkoppling av programmet från den underliggande operativsystemet och serverhårdvaran gör det möjligt för dem att köra som nätverkstjänster. En applikation kan köras parallellt på flera servrar, eller flera applikationer kan köras på samma server, eftersom den bästa resursfördelningen dikterar. Denna avkoppling möjliggör bättre lastbalansering och katastrofåterställning för strategier för affärsuppehåll. Processen med att omfördela datorresurser till en applikation är dynamisk. Använda ett applikationsvirtualiseringssystem som Data Synapses GridServer, kan applikationer migrera, med hjälp av förkonfigurerade policyer, till underutnyttjade servrar i en process för utbyte av matchningar och efterfrågan (wwwworkworldsupp2005ndc1022105virtual. htmlpage2). Det finns många affärsmässiga fördelar för finansiella företag som antar applikationsvirtualisering: Snabbare marknadsföringstid för nya produkter och tjänster Snabbare integration av företag efter fusions - och förvärvsaktivitet Ökad tillgänglighet för applikationer Bättre arbetsfördelningsfördelning, vilket skapar mer kvotrumskvoter för bearbetning av spikar i handelsvolym Operativt effektivitet och kontroll Minskning i IT-komplexitet För närvarande används inte applikationsvirtualisering i handelsfronten. Ett användarfall är riskmodellering, som Monte Carlo-simuleringar. Eftersom tekniken utvecklas är det tänkbart att vissa handelsplattformar kommer att anta det. Data Virtualiseringstjänst För att effektivt dela resurser över distribuerade företagsapplikationer måste företagen kunna utnyttja data över flera källor i realtid samtidigt som dataintegritet säkerställs. Med lösningar från data-virtualiseringsprogramvaruförsäljare som Gemstone eller Tangosol (nu Oracle) kan finansiella företag få tillgång till heterogena datakällor som en enda systembild som möjliggör anslutning mellan affärsprocesser och obehindrad applikationsåtkomst till distribuerad caching. Nettoresultatet är att alla användare har direkt tillgång till dessa datafiler över ett distribuerat nätverk (gridtoday030210101061.html). Detta kallas ett datanät och är det första steget i processen att skapa vad Gartner kallar Extreme Transaction Processing (XTP) (gartnerDisplayDocumentrefgsearchampid500947). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of GroupsChannels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward networkapplication management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange. What drives mobile commerce An empirical evaluation of the revised technology acceptance model Jen-Her Wu a, b, Shu-Ching Wang a, c a Department of Information Management, National Sun Yat-sen University, Kaohsiung 804, Taiwan b Institute of Health Care Management, National Sun Yat-sen University, Kaohsiung 804, Taiwan c Department of Information Management, National Kaohsiung Marine University, Kaohsiung 811, Taiwan Accepted 24 July 2004. Available online 1 October 2004. This study presents an extended technology acceptance model (TAM) that integrates innovation diffusion theory, perceived risk and cost into the TAM to investigate what determines user mobile commerce (MC) acceptance. The proposed model was empirically tested using data collected from a survey of MC consumers. The structural equation modeling technique was used to evaluate the causal model and confirmatory factor analysis was performed to examine the reliability and validity of the measurement model. Our findings indicated that all variables except perceived ease of use significantly affected users behavioral intent. Among them, the compatibility had the most significant influence. Furthermore, a striking, and somewhat puzzling finding was the positive influence of perceived risk on behavioral intention to use. The implication of this work to both researchers and practitioners is discussed. Mobile commerce Technology acceptance model Innovation diffusion theory Perceived risk Cost Table 6. Fig. 2. Jen-Her Wu is professor of information management at National Sun Yat-Sen University. Prior to his doctoral study at the University of Kentucky, he received a BS degree in industrial design, earned an MS degree in computer science and worked as an engineer and manager in the manufacturing industry. Professor Wu teaches a variety of information management courses. He has published a book (Systems Analysis and Design) and more than 30 journal articles. His research articles have been published in Information amp Management . Decision Support Systems . International Journal of Technology Management . Computers in Human Behavior . Electronic Commerce Research and Applications . Expert Systems . Knowledge Acquisition . Journal of Computer Information Systems . and others . His current research interests include various aspects of information systems development and management, human computer interaction, and knowledge management. Shu-Ching Wang is doctoral student of information management at National Sun Yat-Sen University and instructor of information management at National Kaohsiung Marine University, Taiwan. She earned her BS and MS degrees in computer science. She has participated with Professor Wus research team for two years. Her research interests include e-commerce, e-healthcare and e-learning. Corresponding author. Tel. 886 7 525 2000 fax: 886 7 525 4799. Copyright 2004 Elsevier B. V. All rights reserved. Citing articles ( )

No comments:

Post a Comment