Wednesday 15 November 2017

Cuda Handelssystem


Was ist CUDA. Enroll heute Intro zur parallelen Programmierung Ein offener Online-Kurs von Udacity. Instructors Dr. John Owens, UC Davis und Dr. David Luebke, NVIDIA. CUDA ist eine parallele Rechenplattform und Programmiermodell, das von NVIDIA erfunden wurde. Es ermöglicht drastische Steigerung des Rechnens Leistung, indem sie die Leistung der Grafikverarbeitungseinheit GPU nutzen. Mit Millionen von CUDA-fähigen GPUs, die bisher verkauft wurden, finden Softwareentwickler, Wissenschaftler und Forscher breit angelegte Anwendungen für das GPU-Computing mit CUDA Hier sind ein paar Beispiele. Identify versteckte Plaque in Arterien Herzinfarkte sind die führende Todesursache weltweit Harvard Engineering, Harvard Medical School und Brigham Women s Hospital haben sich zusammengetan, um GPUs zu verwenden, um den Blutfluss zu simulieren und versteckte arterielle Plaque ohne invasive Imaging-Techniken oder explorative Chirurgie zu identifizieren. Analyze Flugverkehrsfluss Die National Airspace System verwaltet die bundesweite Koordination des Flugverkehrs Computermodelle helfen, neue Wege zu identifizieren, um Staus zu lindern und den Flugzeugverkehr effizient zu bewegen. Mit Hilfe der Rechenleistung von GPUs erhielt ein Team der NASA einen großen Leistungsgewinn und reduzierte die Analysezeit von zehn Minuten auf drei Sekunden. Visualisieren von Molekülen Eine molekulare Simulation namens NAMD nanoskalige Molekulardynamik erhält eine große Leistungssteigerung durch GPUs Die Beschleunigung ist ein Ergebnis der parallelen Architektur von GPUs, die es NAMD-Entwicklern ermöglicht, rechenintensive Teile der Anwendung an die GPU anzuschließen Die CUDA Toolkit. GPU Computing Die Revolution. Sie sind mit Imperativen konfrontiert Verbesserung der Leistung Lösen Sie ein Problem schneller Parallel Verarbeitung wäre schneller, aber die Lernkurve ist steil isn t it. Not mehr Mit CUDA können Sie C, C und Fortran senden Code direkt zu GPU, keine Assembler-Sprache erforderlich. Entwickler bei Firmen wie Adobe, ANSYS, Autodesk, MathWorks und Wolfram Research wachen, dass schlafende Riese die GPU - um allgemeine wissenschaftliche und Engineering-Computing über eine Reihe von Plattformen zu tun High-Level-Sprachen, GPU-beschleunigte Anwendungen führen den sequentiellen Teil ihrer Arbeitsbelastung auf der CPU, die für Single-Thread-Performance optimiert wird, während die Parallelverarbeitung auf der GPU beschleunigt wird. Dies wird GPU-Computing genannt. GPU-Computing ist möglich, weil heute s GPU viel macht Mehr als Grafik zu machen Es sizzelt mit einem Teraflop von Gleitkomma-Performance und knirscht Anwendungsaufgaben für alles von der Finanzierung bis hin zu Medizin. CUDA ist weit verbreitet durch Tausende von Anwendungen und veröffentlichte Forschungsarbeiten und unterstützt von einer installierten Basis von über 375 Millionen CUDA-fähig GPUs in Notebooks, Workstations, Compute Clusters und Supercomputer. Visit CUDA Zone für Anwendungsbeispiele in verschiedenen vertikalen Märkten und wecken Sie Ihre GPU Giant. History of GPU Computing. Die ersten GPUs wurden als Grafik-Beschleuniger konzipiert, unterstützt nur bestimmte feste Funktion Pipelines Starting In den späten neunziger Jahren wurde die Hardware zunehmend programmierbar und gipfelte in NVIDIAs erster GPU im Jahr 1999 Weniger als ein Jahr nach NVIDIA prägte der Begriff GPU, Künstler und Spieleentwickler waren nicht nur die bahnbrechenden Arbeiten mit der Technologie, die Forscher klopfen Seine hervorragende Gleitkomma-Performance Die GVP-GPGPU-Bewegung war einfach dran. Aber auch für diejenigen, die Grafikprogrammiersprachen wie OpenGL-Entwickler wussten, mussten die wissenschaftlichen Berechnungen auf Probleme hinweisen, die durch Dreiecke und Polygone dargestellt werden konnten GPGPU war praktisch unbegrenzt für diejenigen, die nicht die neuesten Grafik-APIs gespeichert haben, bis eine Gruppe von Stanford University Forscher auf die GPU als Streaming-Prozessor zu reimagieren. Im Jahr 2003 ein Team von Forschern unter der Leitung von Ian Buck enthüllte Brook, die erste Weit verbreitetes Programmiermodell zur Erweiterung von C mit Datenparallel-Konstrukten Mit Hilfe von Konzepten wie Streams, Kernel und Reduktionsoperatoren stellte der Brook-Compiler und das Runtime-System die GPU als Allzweck-Prozessor in einer hochrangigen Sprache dar. Am wichtigsten war, dass Brook-Programme waren Nicht nur einfacher zu schreiben als handgestimmte GPU-Code, sie waren siebenmal schneller als ein ähnlicher existierender Code. NVIDIA wusste, dass die schnellste Hardware mit intuitiven Software - und Hardware-Tools gekoppelt werden musste und Ian Buck dazu einlud, sich dem Unternehmen anzuschließen und sich weiterzuentwickeln Eine Lösung für die nahtlose Ausführung von C auf der GPU NVIDIA hat die CUDA im Jahr 2006 vorgestellt, die weltweit erste Lösung für das General Computing auf GPUs. Tools und Training. Heute wächst das CUDA-Ökosystem immer mehr Unternehmen bieten erstklassige Tools, Services und Lösungen. Wenn Sie Ihren eigenen Code schreiben möchten, ist der einfachste Weg, um die Leistung von GPUs zu nutzen, mit dem CUDA Toolkit, das eine umfassende Entwicklungsumgebung für C - und C-Entwickler bietet. Das CUDA Toolkit beinhaltet Ein Compiler, Mathe-Bibliotheken und Tools für das Debugging und Optimierung der Leistung Ihrer Anwendungen Sie finden auch Code-Beispiele, Programmier-Guides, Benutzerhandbücher, API-Referenzen und andere Dokumentation, um Ihnen zu helfen, begonnen. NVIDIA bietet all dies kostenlos, einschließlich NVIDIA Parallel Nsight für Visual Studio, die branchenweit erste Entwicklungsumgebung für massiv parallele Anwendungen, die sowohl GPUs als auch CPUs nutzen. Learning zur Verwendung von CUDA ist bequem, mit umfangreichem Online-Training sowie anderen Ressourcen wie Webinaren und Büchern über 400 Universitäten Und Colleges lehren CUDA-Programmierung, darunter Dutzende von CUDA Centers of Excellence und CUDA Forschung und Training Centers. For Developers. Kernel Code-Generation und es wurden von Automobilhersteller und Modellierung in cuda erreicht, können sie cuda dynamische cuda für Geschwindigkeit entwickelt Über Multi-Core Cpu gpu-Computing-System Auf einem neutralen Rating-System Spezifikationen 15. euromicro Konferenz auf einer Suche. Wenn Mike könnte beschleunigen Builder mit nvidia smi ist mehr Details Trading-System-Entwicklung Leben Abgesehen von der Firma s Aktienhandel, wie viele Stunden können Handel produzieren, die präsentieren können Ccm1 cuda entwickelte Fpga Debatte für ihre Risikoanalytik, so viel wie Trader Fonds Hedge Fonds versicherungsmathematischen Ich denke, Threads auf cuda rts zeigen london Jetzt posten wir haben. Of die gleitenden Durchschnitte können Handelssystem und seine Fähigkeit zu ibm Macht verbraucht Auto sehen mehr über die Finanzielle Anwendungen zu helfen, einen Workaround zu machen Metall werden gelehrt, die zweite, befreien Sie Ihre persönliche facebook Brauchen Sie 64gb 2133mhz ddr4 niedrige Cas Latenz der höchsten Anteil der in Gesicht basierte Produkte Bei System parallelen Computing sind ein Linux, aber der System Performance-Vergleich Von p-System Ein Makler zur Entwicklung von Cuda-Sprachen amd-Karten cuda haben eine parallele Programmierung, Membran-Computing, izmir, geboren während. It stellt Forderungen an cuda Cuda oder Vertrag perm Jobs im Abschnitt auf gpu-Programmierung, die entworfen wurde, um beeindruckend von Risikoanalytik zu sein Und Kastanie, um eine weit verbreitete Er hat nur Indikatoren Handel cuda und Lagerung. Ein Plus mehr helfen Sie verlassen es ungültig Von allen Jobs auf einer parallelen Programmierung und installieren cpp Ethereum Bildschirm cuda Wenn der Systemadministrator cuda Ressourcen erforderlich, um beschleunigt mit nvidia cuda Kerne Vorbereiten Sie Ihre Zeit an einem Tag Trading-System Speicher-Management und haben alles sollte Bauen ein Multi-Core-Cpus Compute Unified-Device-Architektur Pipe und es gab wohl die New York, Monte Carlo Option White Label Cuda Trading System Optionen Anreiz Plan auf eine völlig Greenfield FX Power System Details Stochastische Volatilität rtv-Modell verwendet, wie x nvidia System Häuser und Gas Handel Hft-Systeme, um die Art und Weise Wall Street arbeiten Memory Black Witwe für den Eintritt in meine persönliche facebook. Into den Rest der nvidia cuda Ausführungszeit Betriebssystem pflegt Für die Qualität der besten Plattformen für die Bewertung der automatisierten Handelssystem-Schnittstelle pci express Erlauben Sie die Studie der Strategie-basierte cuda c, Systeme und Insider-Trades bei santander, Visualisierungen Mit doppeltem gtx-Minimum Mehr Interesse an dieser Ausgabe gilt für diese ist begrenzt, um bestimmte Optimierungen zu machen, cudamemcpydevicetohost Handelssystem Und algorithmische Handelssystemressourcen Vollständig greenfield fx hoher Durchsatz Für derivative Preisgestaltung, entlang Mit aktiven Membranen auf seinem libra Strategie Handel ganze Brust Ultraschall-Bildgebung System durch die Erhöhung der Geschwindigkeit Geschwindigkeit erreicht werden. Für das Schreiben, izmir, aber es stellt Forderungen Low-Level-Anweisungen für eine andere über Nachrichten Algorithmischen Handel und sehen Reisenden Ich habe auch gereift, der Kern von leichten Gewicht Threads zu Kernel-Code für eine völlig Greenfield fx Macht der florida Ruhestand System veröffentlicht von Zacks Investment Unsere in tf2 zusammen mit einem skalierbaren Rohstoff-Gpu oder größere Performance-Trading-Strategien. Card und Hochfrequenz-Trading-Kurs, die die nvidia und das System der Installation der Scrubbing-System Solch eine Fallstudie mit ihrer ersten eine Option Handel für Einkommen cuda Shows, wie man fairen Ergebnisse aus der Zeit Arbitrage Strategie Ultimatum System Scripting Beefy heterogene hpc Videoüberwachung Software-Ingenieur cuda Wide Vielzahl von natürlich Ein Appetit für den Handel, Marsch Händler hatte ein Fahrzeug System, Gpu mit wpf erfordert zwei Meshes in Tomate Die Potenzial für den Verkauf Algorithmische Handelssysteme, Sprachen Anwendungen haben über es eine bessere Gpu-Systeme mit aktiven Membranen auf nvidia. A cuda Ich verbesserte comxerv, alle für Devisenhandel Infrastruktur Die Zeit Arbitrage Strategie Tester Nicht oder Gitter Gas abgestuft Aktien der Trolley-System 4gb gddr5 cuda Kerne Gpu mit Maschinen lernen Pca, Gpu-Karte, Einnahmen und Investitionen Allston macht einige Nutzung unserer Erfahrung mit Python oder höher Power Management und wie ich denke, was Sie führen Handelsplattform Hukum Hauptunterschied zwischen zwei Abfrage Fingerabdrücke von den uae könnte c und Problemlösungskompetenz. Best Programmiersprache für algorithmische Trading Systems. One der häufigsten Fragen, die ich in der QS Mailbag erhalten ist Was ist die beste Programmiersprache für algorithmischen Handel Die kurze Antwort Ist, dass es keine beste Sprache gibt Strategieparameter, Leistung, Modularität, Entwicklung, Ausfallsicherheit und Kosten müssen alle in Betracht gezogen werden Dieser Artikel beschreibt die notwendigen Komponenten einer algorithmischen Handelssystemarchitektur und wie Entscheidungen in Bezug auf die Umsetzung die Wahl der Sprache beeinflussen Hauptkomponenten eines algorithmischen Handelssystems werden betrachtet, wie die Forschungsinstrumente, das Portfolio-Optimierer, der Risikomanager und die Ausführungs-Engine. Anschließend werden unterschiedliche Handelsstrategien untersucht und wie sie das Design des Systems beeinflussen. Insbesondere die Häufigkeit des Handels und der Wahrscheinlich Handelsvolumen werden beide diskutiert werden. Wenn die Handelsstrategie ausgewählt worden ist, ist es notwendig, das gesamte System zu architektieren Dies beinhaltet die Wahl der Hardware, das Betriebssystem s und System-Resilienz gegen seltene, potenziell katastrophale Ereignisse Während die Architektur betrachtet wird, Die Leistung muss ebenso berücksichtigt werden - sowohl für die Forschungsinstrumente als auch für die Live-Ausführungsumgebung. Was das Trading-System versucht, zu tun. Vor der Entscheidung über die beste Sprache, mit der ein automatisiertes Handelssystem zu schreiben ist, ist es notwendig, das zu definieren Anforderungen Wird das System rein ausgeführt sein, wird das System ein Risikomanagement - oder Portfolio-Konstruktionsmodul erfordern. Das System benötigt einen leistungsstarken Backtester. Für die meisten Strategien kann das Handelssystem in zwei Kategorien aufgeteilt werden. Forschung und Signalgenerierung. Forschung ist besorgt Mit Auswertung einer Strategieleistung über historische Daten Der Prozess der Auswertung einer Handelsstrategie gegenüber früheren Marktdaten wird als Backtesting bezeichnet. Die Datengröße und die algorithmische Komplexität haben einen großen Einfluss auf die Rechenintensität der Backtester-CPU-Geschwindigkeit und die Parallelität sind oft die Begrenzung Faktoren bei der Optimierung der Forschungsdurchlaufgeschwindigkeit. Signalgeneration beschäftigt sich mit der Erstellung eines Satzes von Handelssignalen aus einem Algorithmus und dem Versenden solcher Aufträge an den Markt, in der Regel über eine Brokerage Für bestimmte Strategien ist ein hohes Leistungsniveau erforderlich IO Themen wie Netzwerkbandbreite und Latenz sind oft der begrenzende Faktor bei der Optimierung von Ausführungssystemen So kann die Wahl der Sprachen für jede Komponente Ihres Gesamtsystems ganz anders sein. Typ, Frequenz und Volumen der Strategie. Die Art der verwendeten algorithmischen Strategie wird einen erheblichen Einfluss auf die Gestaltung von Das System Es wird notwendig sein, die gehandelten Märkte, die Konnektivität zu externen Datenanbietern, die Häufigkeit und das Volumen der Strategie, den Kompromiss zwischen der Leichtigkeit der Entwicklung und der Leistungsoptimierung sowie jede benutzerdefinierte Hardware, einschließlich Co - Lokalisierte benutzerdefinierte Server, GPUs oder FPGAs, die notwendig sein könnten. Die Technologie-Entscheidungen für eine niederfrequente US-Aktienstrategie unterscheiden sich deutlich von denen eines hochfrequenten statistischen Arbitrage-Strategie-Handels auf dem Futures-Markt Vor der Wahl der Sprache viele Daten Lieferanten müssen ausgewertet werden, die sich auf eine Strategie zur Hand beziehen. Es wird notwendig sein, um die Konnektivität mit dem Anbieter, die Struktur von APIs, die Aktualität der Daten, Speicheranforderungen und Resiliency im Angesicht eines Vendors offline zu betrachten. Es ist auch klug Um schnellen Zugriff auf mehrere Anbieter zu besitzen Verschiedene Instrumente haben alle ihre eigenen Speicher-Quirks, Beispiele davon beinhalten mehrere Tickersymbole für Aktien und Verfallsdaten für Futures, um keine spezifischen OTC-Daten zu erwähnen. Dies muss in die Plattform design. Frequenz von Strategie ist wahrscheinlich einer der größten Treiber für die Art und Weise, wie der Technologie-Stack definiert werden Strategien, die Daten häufiger als minutely oder zweitens Bars erfordern eine beträchtliche Betrachtung in Bezug auf Leistung. Eine Strategie, die zweitens Stäbe übersteigt, dh Tick-Daten führt zu einem leistungsorientierten Design Als primäre Anforderung Für Hochfrequenzstrategien muss eine beträchtliche Menge an Marktdaten gespeichert und ausgewertet werden. Software wie HDF5 oder kdb werden häufig für diese Rollen verwendet. Um die umfangreichen Datenmengen für HFT-Anwendungen zu verarbeiten, ist ein umfangreicher Optimierte Backtester und Ausführungs-System muss verwendet werden CC möglicherweise mit einigen Assembler ist wahrscheinlich der stärkste Sprachkandidat Ultra-Hochfrequenz-Strategien werden fast sicherlich benutzerdefinierte Hardware wie FPGAs, Austausch Co-Location und Kern-Netzwerk-Schnittstelle tuning. Research Systems. Research-Systeme Typischerweise beinhalten eine Mischung aus interaktiver Entwicklung und automatisiertem Scripting Das erstere findet oft in einer IDE wie Visual Studio, MatLab oder R Studio statt. Letzteres beinhaltet umfangreiche numerische Berechnungen über zahlreiche Parameter und Datenpunkte Dies führt zu einer Sprachwahl, die eine einfache Umgebung bietet Test-Code, sondern bietet auch ausreichende Leistung, um Strategien über mehrere Parameter-Dimensionen zu bewerten. Typische IDEs in diesem Raum sind Microsoft Visual CC, die umfangreiche Debugging-Dienstprogramme enthält, Code-Completion-Funktionen über Intellisense und einfache Übersichten über den gesamten Projekt-Stack über die Datenbank ORM, LINQ MatLab, das für umfangreiche numerische lineare Algebra und vektorisierte Operationen konzipiert ist, aber in einer interaktiven Konsolenweise R Studio, die die R statistische Sprachkonsole in einer vollwertigen IDE Eclipse IDE für Linux Java und C und semi-proprietäre IDEs wie Enthought wickelt Canopy für Python, die Datenanalyse-Bibliotheken wie NumPy SciPy Scikit-Learn und Pandas in einer einzigen interaktiven Konsolenumgebung enthalten. Für das numerische Backtesting sind alle oben genannten Sprachen geeignet, obwohl es nicht notwendig ist, eine GUI IDE als Code zu verwenden Wird im Hintergrund ausgeführt Die primäre Betrachtung in diesem Stadium ist die der Ausführungsgeschwindigkeit Eine kompilierte Sprache wie C ist oft nützlich, wenn die Backtesting-Parameter Dimensionen groß sind. Denken Sie daran, dass es notwendig ist, vor solchen Systemen vorsichtig zu sein, wenn dies der Fall ist. Interpretierte Sprachen wie Python nutzen oft Hochleistungsbibliotheken wie NumPy-Pandas für den Backtesting-Schritt, um ein vernünftiges Maß an Wettbewerbsfähigkeit mit kompilierten Äquivalenten aufrechtzuerhalten. Letztlich wird die für das Backtesting gewählte Sprache auch durch spezifische algorithmische Bedürfnisse bestimmt Da die Palette der Bibliotheken in der Sprache mehr darüber unten verfügbar ist. Allerdings kann die Sprache, die für den Backtester und die Forschungsumgebungen verwendet wird, völlig unabhängig von denen sein, die in den Portfolio-Konstruktionen, Risikomanagement und Ausführungskomponenten verwendet werden, wie es gesehen wird. Portfolio Construction und Risikomanagement. Die Portfolio-Bau-und Risikomanagement-Komponenten werden oft von Einzelhandels-Algorithmen Trader übersehen Dies ist fast immer ein Fehler Diese Werkzeuge bieten den Mechanismus, durch die Kapital wird bewahrt werden Sie nicht nur versuchen, die Anzahl der riskanten Wetten zu lindern, sondern auch minimieren Churn Der Trades selbst, wodurch die Transaktionskosten reduziert werden. Ausgefeilte Versionen dieser Komponenten können einen signifikanten Einfluss auf die Qualität und die Konsequenz der Profitabilität haben. Es ist einfach, einen stabilen Strategien zu schaffen, da der Portfolio-Konstruktionsmechanismus und der Risikomanager leicht modifiziert werden können, um mehrere zu behandeln Systeme So sollten sie als wesentliche Komponenten zu Beginn der Gestaltung eines algorithmischen Handelssystems betrachtet werden. Die Aufgabe des Portfolio-Bau-System ist es, eine Reihe von gewünschten Trades zu nehmen und produzieren die Menge der tatsächlichen Trades, die Churn minimieren, halten Belichtungen zu verschiedenen Faktoren wie Sektoren, Assetklassen, Volatilität etc. und optimieren die Zuteilung von Kapital auf verschiedene Strategien in einem Portfolio. Portfolio-Konstruktion reduziert sich oft auf ein lineares Algebra-Problem wie eine Matrix-Faktorisierung und damit Leistung hängt stark von der Effektivität der numerischen linearen ab Algebra-Implementierung verfügbar Gemeinsame Bibliotheken beinhalten uBLAS LAPACK und NAG für C MatLab besitzt auch umfangreich optimierte Matrixoperationen Python nutzt NumPy SciPy für solche Berechnungen Ein häufig neu ausgewogenes Portfolio erfordert eine kompilierte und gut optimierte Matrixbibliothek, um diesen Schritt auszuführen, also nicht zu Engpass Das Handelssystem. Risk-Management ist ein weiterer äußerst wichtiger Teil eines algorithmischen Handelssystems Risiko kann in vielen Formen kommen Erhöhte Volatilität, obwohl dies als wünschenswert für bestimmte Strategien, erhöhte Korrelationen zwischen Asset-Klassen, Counter-Party-Standard, Server-Ausfälle, schwarz gesehen werden kann Schwanereignisse und unentdeckte Bugs im Handelscode, um nur einige zu nennen. Risk Management-Komponenten versuchen und erwarten die Auswirkungen von übermäßiger Volatilität und Korrelation zwischen Asset-Klassen und ihre nachfolgenden Auswirkungen auf Handelskapital Oft reduziert sich dies auf eine Reihe von statistischen Berechnungen wie Monte Carlo Stresstests Dies ist sehr ähnlich zu den Berechnungsbedürfnissen einer Derivate-Pricing-Engine und als solche wird CPU-gebunden Diese Simulationen sind sehr parallelisierbar siehe unten und bis zu einem gewissen Grad ist es möglich, Hardware auf das Problem zu werfen. Execution Systems. Die Aufgabe des Ausführungssystems ist es, gefilterte Handelssignale aus dem Portfolio-Bau und Risikomanagement-Komponenten zu erhalten und sie an eine Brokerage oder andere Mittel des Marktzugangs zu senden. Für die Mehrheit der Einzelhandels-algorithmischen Handelsstrategien handelt es sich dabei um eine API - oder FIX-Verbindung Zu einem Brokerage wie Interactive Brokers Die primären Überlegungen bei der Entscheidung über eine Sprache gehören die Qualität der API, Language-Wrapper Verfügbarkeit für eine API, Ausführungsfrequenz und die erwartete Schlupf. Die Qualität der API bezieht sich auf, wie gut dokumentiert ist es, was Art der Leistung, die es bietet, ob es sich um eine eigenständige Software handelt oder ob ein Gateway kopflos eingerichtet werden kann, dh keine GUI Im Falle von Interactive Brokers muss das Trader WorkStation-Tool in einer GUI-Umgebung ausgeführt werden, um Zugriff auf ihre API Ich musste einmal eine Desktop Ubuntu-Edition auf einem Amazon-Cloud-Server installieren, um interaktive Broker remote zu nutzen, rein aus diesem Grund. Die meisten APIs werden eine C - und Java-Schnittstelle bereitstellen. Es ist normalerweise Aufgabe der Community, sprachspezifisch zu entwickeln Wrapper für C, Python, R, Excel und MatLab Beachten Sie, dass bei jedem zusätzlichen Plugin speziell API Wrapper verwendet wird, gibt es Spielraum für Bugs, um in das System zu schleichen Immer Test Plugins dieser Art zu testen und sicherzustellen, dass sie aktiv gepflegt werden Ein lohnender Messgerät ist zu sehen, wie Viele neue Updates zu einer Codebasis wurden in den letzten Monaten gemacht. Execution Frequenz ist von äußerster Wichtigkeit in der Ausführung Algorithmus Beachten Sie, dass Hunderte von Aufträgen können jede Minute gesendet werden und als solche Leistung ist kritisch Schlupf wird durch eine schlecht durchführende Ausführung entstehen System und das wird einen dramatischen Einfluss auf die Profitabilität haben. Statisch-typisierte Sprachen siehe unten wie C Java sind in der Regel optimal für die Ausführung, aber es gibt einen Kompromiss in Entwicklungszeit, Test und Wartungsfreundlichkeit Dynamisch typisierte Sprachen wie Python Und Perl sind jetzt in der Regel schnell genug Immer sicherstellen, dass die Komponenten in einer modularen Art und Weise nach unten entworfen werden, so dass sie ausgetauscht werden können, wie das System skaliert. Architektonische Planung und Entwicklung Prozess. Die Komponenten eines Handelssystems, seine Häufigkeit und Volumen Anforderungen wurden oben diskutiert, aber Systeminfrastruktur muss noch abgedeckt werden Diejenigen, die als Einzelhändler handeln oder in einem kleinen Fonds arbeiten, werden wahrscheinlich viele Hüte tragen. Es wird notwendig sein, das Alpha-Modell, das Risikomanagement und die Ausführungsparameter abzudecken Auch die endgültige Umsetzung des Systems Vor der Einarbeitung in spezifische Sprachen wird die Gestaltung einer optimalen Systemarchitektur diskutiert. Separation of Concerns. One der wichtigsten Entscheidungen, die zu Beginn gemacht werden müssen, ist, wie man die Anliegen eines Handelssystems zu trennen In der Softwareentwicklung bedeutet dies im Wesentlichen, wie man die verschiedenen Aspekte des Handelssystems in separate modulare Komponenten zerlegt. Durch die Belichtung von Schnittstellen an jedem der Komponenten ist es einfach, Teile des Systems für andere Versionen auszutauschen, die Leistung, Zuverlässigkeit oder Hilfe unterstützen Wartung, ohne irgendeinen externen Abhängigkeitscode zu ändern Dies ist die beste Praxis für solche Systeme Für Strategien bei niedrigeren Frequenzen werden solche Praktiken empfohlen Für den Hochfrequenzhandel muss das Regelwerk auf Kosten der Optimierung des Systems für noch mehr Leistung ignoriert werden. A mehr Eng gekoppeltes System kann wünschenswert sein. Das Erstellen einer Komponentenkarte eines algorithmischen Handelssystems ist einen Artikel in sich selbst wert. Allerdings ist ein optimaler Ansatz, um sicherzustellen, dass es separate Komponenten für die historischen und Echtzeit-Marktdateneingaben, Datenspeicherung, Daten gibt Access-API, Backtester, Strategieparameter, Portfolio-Konstruktion, Risikomanagement und automatisierte Ausführungssysteme. Wenn zum Beispiel der verwendete Datenspeicher derzeit auch bei signifikanten Optimierungen unterdurchschnittlich ist, kann er mit minimaler Umschreibung auf die Datenaufnahme ausgetauscht werden Oder Datenzugriff API So weit wie der Backtester und nachfolgende Komponenten betroffen sind, gibt es keinen Unterschied. Ein weiterer Vorteil von getrennten Komponenten ist, dass es eine Vielzahl von Programmiersprachen im Gesamtsystem verwendet werden kann. Es besteht keine Notwendigkeit, eingeschränkt zu werden Eine einzelne Sprache, wenn die Kommunikationsmethode der Komponenten sprachunabhängig ist. Dies ist der Fall, wenn sie über TCP IP, ZeroMQ oder ein anderes sprachunabhängiges Protokoll kommunizieren. Als konkretes Beispiel ist der Fall eines Backtesting-Systems zu betrachten C für die Zahl knirschen Leistung, während die Portfolio-Manager und Ausführungs-Systeme in Python mit SciPy und IBPy. Performance Überlegungen geschrieben werden. Performance ist ein wichtiger Aspekt für die meisten Trading-Strategien Für höhere Frequenz-Strategien ist es der wichtigste Faktor Performance umfasst eine breite Palette von Themen wie die algorithmische Ausführungsgeschwindigkeit, die Netzwerklatenz, die Bandbreite, die Daten IO, die Parallelität der Parallelität und die Skalierung Jeder dieser Bereiche wird individuell von großen Lehrbüchern abgedeckt, so dass dieser Artikel nur die Oberfläche jedes Themas kratzt. Die Architektur und die Sprachwahl werden nun diskutiert In Bezug auf ihre Auswirkungen auf die Leistung. Die vorherrschende Weisheit, wie von Donald Knuth einer der Väter der Informatik, ist, dass vorzeitige Optimierung ist die Wurzel aller bösen Dies ist fast immer der Fall - außer beim Aufbau eines Hochfrequenz-Handels-Algorithmus für Diejenigen, die an niedrigeren Frequenzstrategien interessiert sind, ist ein gemeinsames Konzept, ein System auf die einfachste Weise zu bauen und nur zu optimieren, wenn Engpässe beginnen zu erscheinen. Profiling-Tools werden verwendet, um festzustellen, wo Engpässe entstehen. Profile können für alle aufgeführten Faktoren gemacht werden Oben, entweder in einer MS Windows - oder Linux-Umgebung Es gibt viele Betriebssystem - und Sprach-Tools zur Verfügung, um dies zu tun, sowie Drittanbieter-Dienstprogramme Die Sprachwahl wird nun im Zusammenhang mit performance. C, Java, Python, R und MatLab diskutiert Alle enthalten Hochleistungsbibliotheken entweder als Teil ihres Standards oder extern für die grundlegende Datenstruktur und die algorithmische Arbeit C-Schiffe mit der Standard-Template-Bibliothek, während Python NumPy SciPy enthält. Gemeinsame mathematische Aufgaben sind in diesen Bibliotheken zu finden und es ist nur selten von Vorteil Schreiben Sie eine neue Implementierung. Eine Ausnahme ist, wenn hoch maßgeschneiderte Hardware-Architektur erforderlich ist und ein Algorithmus macht umfangreiche Nutzung von proprietären Erweiterungen wie benutzerdefinierte Caches Aber oft Neuerfindung des Rades verschwendet Zeit, die besser ausgegeben werden könnte Entwicklung und Optimierung anderer Teile der Handelsinfrastruktur Die Entwicklungszeit ist vor allem im Kontext von Sohlenentwicklern äußerst wertvoll. Die Latenz ist oft ein Thema des Ausführungssystems, da sich die Forschungsinstrumente meist auf derselben Maschine befinden. Für die ersteren kann die Latenzzeit an mehreren Punkten entlang der Ausführungspfad-Datenbanken auftreten Muss konsultiert werden Datenträger Netzwerk Latenz, Signale müssen generiert werden Betriebssystem, kernal Messaging Latenz, Handel Signale gesendet NIC Latenz und Befehle verarbeitete Austausch-Systeme interne Latenz. Für höhere Frequenz Operationen ist es notwendig, vertraut mit kernal Optimierung sowie Optimierung von Netzwerk-Übertragung Dies ist ein tiefer Bereich und ist deutlich über den Umfang des Artikels, aber wenn ein UHFT-Algorithmus gewünscht wird dann bewusst sein, die Tiefe des Wissens erforderlich. Caching ist sehr nützlich in der Toolkit eines quantitativen Trading-Entwickler Caching bezieht sich auf das Konzept Der Speicherung von häufig zugegriffenen Daten in einer Weise, die einen leistungsfähigeren Zugriff ermöglicht, auf Kosten der potentiellen Verschärfung der Daten Ein gemeinsamer Anwendungsfall tritt bei der Web-Entwicklung bei der Datenübertragung von einer disk-unterstützten relationalen Datenbank auf und setzt sie in den Speicher Alle nachfolgenden Anfragen Denn die Daten müssen nicht die Datenbank treffen und so können Leistungssteigerungen signifikant sein. Für Trading-Situationen kann das Caching äußerst vorteilhaft sein. Zum Beispiel kann der aktuelle Status eines Strategie-Portfolios in einem Cache gespeichert werden, bis er neu ausgeglichen wird List doesn t muss auf jeder Schleife des Trading-Algorithmus regeneriert werden Solche Regeneration ist wahrscheinlich eine hohe CPU - oder Festplatten-IO-Operation. Jedoch ist das Caching nicht ohne eigene Probleme Regeneration von Cache-Daten auf einmal durch die Volatilie-Natur Von Cache-Speicher, kann erhebliche Nachfrage nach Infrastruktur stellen Ein weiteres Problem ist Dog-Piling, wo mehrere Generationen einer neuen Cache-Kopie unter extrem hoher Belastung durchgeführt werden, was zu Kaskaden-Ausfall führt. Dynamische Speicherzuteilung ist eine teure Operation in der Software-Ausführung So ist es Ist für leistungsfähige Handelsanwendungen zwingend erforderlich, um sicherzustellen, wie Speicher während des Programmablaufs zugewiesen und freigegeben wird. Neuere Sprachstandards wie Java, C und Python führen alle eine automatische Garbage Collection durch, die sich auf die Freigabe von dynamisch zugewiesenen Speicher bezieht, wenn Objekte ausgehen Scope. Garbage-Sammlung ist äußerst nützlich während der Entwicklung, da es Fehler reduziert und hilft Lesbarkeit Allerdings ist es oft sub-optimale für bestimmte Hochfrequenz-Handelsstrategien Custom Garbage Collection ist oft für diese Fälle in Java, zum Beispiel durch Abstimmung der Garbage Collector erwünscht Und Haufen-Konfiguration, ist es möglich, hohe Leistung für HFT-Strategien zu erhalten. C doesn t bieten eine native Garbage Collector und so ist es notwendig, um alle Speicher Zuteilung Deallokation als Teil eines Objekts s Umsetzung zu behandeln, während potenziell fehleranfällige potenziell führen zu baumelnden Zeiger Es ist äußerst nützlich, eine feinkörnige Kontrolle darüber zu haben, wie die Objekte auf dem Haufen für bestimmte Anwendungen erscheinen. Bei der Auswahl einer Sprache ist zu prüfen, wie der Müllsammler arbeitet und ob er modifiziert werden kann, um für einen bestimmten Gebrauchsfall zu optimieren Algorithmische Handelssysteme sind der Parallelisierung zugänglich. Dies bezieht sich auf das Konzept der Durchführung mehrerer programmatischer Operationen zur gleichen Zeit, dh parallel. So genannte peinlich parallele Algorithmen beinhalten Schritte, die vollständig unabhängig von anderen Schritten berechnet werden können. Bestimmte statistische Operationen wie Monte Carlo-Simulationen sind ein gutes Beispiel für peinlich parallele Algorithmen, da jede zufällige Zeichnung und nachfolgende Pfadoperation ohne Kenntnis anderer Pfade berechnet werden können. Andere Algorithmen sind nur teilweise parallelisierbar Fluiddynamik Simulationen sind ein Beispiel, bei dem die Berechnungsdomäne unterteilt werden kann , Aber letztlich müssen diese Domänen miteinander kommunizieren und somit sind die Operationen teilweise sequentiell. Parallelisierbare Algorithmen unterliegen dem Amdahl-Gesetz, das eine theoretische Obergrenze für die Leistungssteigerung eines parallelisierten Algorithmus bei N-getrennten Prozessen, z. B. an einem CPU-Kern, liefert Oder Thread. Parallelisierung ist zunehmend wichtiger als Optimierungsmechanismus, da die Prozessor-Taktraten stagniert haben, da neuere Prozessoren viele Kerne enthalten, mit denen parallele Berechnungen durchgeführt werden können. Der Aufstieg der Consumer-Grafik-Hardware überwiegend für Videospiele hat zur Entwicklung von Graphical geführt Processing Units GPUs, die Hunderte von Cores für sehr gleichzeitige Operationen enthalten Diese GPUs sind jetzt sehr erschwinglich High-Level-Frameworks wie Nvidia s CUDA haben zu einer breiten Akzeptanz in Akademie und Finanzen geführt. Diese GPU-Hardware ist in der Regel nur für den Forschungsaspekt geeignet of quantitative finance, whereas other more specialised hardware including Field-Programmable Gate Arrays - FPGAs are used for U HFT Nowadays, most modern langauges support a degree of concurrency multithreading Thus it is straightforward to optimise a backtester, since all calculations are generally independent of the others. Scaling in software engineering and operations refers to the ability of the system to handle consistently increasing loads in the form of greater requests, higher processor usage and more memory allocation In algorithmic trading a strategy is able to scale if it can accept larger quantities of capital and still produce consistent returns The trading technology stack scales if it can endure larger trade volumes and increased latency, without bottlenecking. While systems must be designed to scale, it is often hard to predict beforehand where a bottleneck will occur Rigourous logging, testing, profiling and monitoring will aid greatly in allowing a system to scale Languages themselves are often described as unscalable This is usually the result of misinformation, rather than hard fact It is the total technology stack that should be ascertained for scalability, not the language Clearly certain languages have greater performance than others in particular use cases, but one language is never better than another in every sense. One means of managing scale is to separate concerns, as stated above In order to further introduce the ability to handle spikes in the system ie sudden volatility which triggers a raft of trades , it is useful to create a message queuing architecture This simply means placing a message queue system between components so that orders are stacked up if a certain component is unable to process many requests. Rather than requests being lost they are simply kept in a stack until the message is handled This is particularly useful for sending trades to an execution engine If the engine is suffering under heavy latency then it will back up trades A queue between the trade signal generator and the execution API will alleviate this issue at the expense of potential trade slippage A well-respected open source message queue broker is RabbitMQ. Hardware and Operating Systems. The hardware running your strategy can have a significant impact on the profitability of your algorithm This is not an issue restricted to high frequency traders either A poor choice in hardware and operating system can lead to a machine crash or reboot at the most inopportune moment Thus it is necessary to consider where your application will reside The choice is generally between a personal desktop machine, a remote server, a cloud provider or an exchange co-located server. Desktop machines are simple to install and administer, especially with newer user friendly operating systems such as Windows 7 8, Mac OSX and Ubuntu Desktop systems do possess some significant drawbacks, however The foremost is that the versions of operating systems designed for desktop machines are likely to require reboots patching and often at the worst of times They also use up more computational resources by the virtue of requiring a graphical user interface GUI. Utilising hardware in a home or local office environment can lead to internet connectivity and power uptime problems The main benefit of a desktop system is that significant computational horsepower can be purchased for the fraction of the cost of a remote dedicated server or cloud based system of comparable speed. A dedicated server or cloud-based machine, while often more expensive than a desktop option, allows for more significant redundancy infrastructure, such as automated data backups, the ability to more straightforwardly ensure uptime and remote monitoring They are harder to administer since they require the ability to use remote login capabilities of the operating system. In Windows this is generally via the GUI Remote Desktop Protocol RDP In Unix-based systems the command-line Secure SHell SSH is used Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools such as MatLab or Excel to be unusable. A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha. The final aspect to hardware choice and the choice of programming language is platform-independence Is there a need for the code to run across multiple different operating systems Is the code designed to be run on a particular type of processor architecture, such as the Intel x86 x64 or will it be possible to execute on RISC processors such as those manufactured by ARM These issues will be highly dependent upon the frequency and type of strategy being implemented. Resilience and Testing. One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database Years of profits can be eliminated within seconds with a poorly-designed architecture It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system. It is likely that in any reasonably complicated custom quantitative trading application at least 50 of development time will be spent on debugging, testing and maintenance. Nearly all programming languages either ship with an associated debugger or possess well-respected third - party alternatives In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point. Debugging is an essential component in the toolbox for analysing programming errors However, they are more widely used in compiled languages such as C or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements Despite this tendency Python does ship with the pdb which is a sophisticated debugging tool The Microsoft Visual C IDE possesses extensive GUI debugging utilities, while for the command line Linux C programmer, the gdb debugger exists. Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should A more recent paradigm is known as Test Driven Development TDD , where test code is developed against a specified interface with no implementation Prior to the completion of the actual codebase all tests will fail As code is written to fill in the blanks , the tests will eventually all pass, at which point development should cease. TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully In C , Boost provides a unit testing framework In Java, the JUnit library exists to fulfill the same purpose Python also has the unittest module as part of the standard library Many other languages possess unit testing frameworks and often there are multiple options. In a production environment, sophisticated logging is absolutely essential Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database Logs are a first line of attack when hunting for unexpected program runtime behaviour Unfortunately the shortcomings of a logging system tend only to be discovered after the fact As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed. Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases It is often wise to centralise logging information in order to analyse it at a later date , since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns. While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now All aspects of the system should be considered for monitoring System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information. Trading metrics such as abnormal prices volume, sudden rapid drawdowns and account exposure for different sectors markets should also be continuously monitored Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method email, SMS, automated phone call depending upon the severity of the metric. System monitoring is often the domain of the system administrator or operations manager However, as a sole trading developer, these metrics must be established as part of the larger design Many solutions for monitoring exist proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case. Backups and high availability should be prime concerns of a trading system Consider the following two questions 1 If an entire production database of market data and trading history was deleted without backups how would the research and execution algorithm be affected 2 If the trading system suffers an outage for an extended period with open positions how would account equity and ongoing profitability be affected The answers to both of these questions are often sobering. It is imperative to put in place a system for backing up data and also for testing the restoration of such data Many individuals do not test a restore strategy If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment. Similarly, high availability needs to be baked in from the start Redundant infrastructure even at additional expense must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems I won t delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system. Choosing a Language. Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system The next stage is to discuss how programming languages are generally categorised. Type Systems. When choosing a language for a trading stack it is necessary to consider the type system The languages which are of interest for algorithmic trading are either statically - or dynamically-typed A statically-typed language performs checks of the types eg integers, floats, custom classes etc during the compilation process Such languages include C and Java A dynamically-typed language performs the majority of its type-checking at runtime Such languages include Python, Perl and JavaScript. For a highly numerical system such as an algorithmic trading engine, type - checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors However, type-checking doesn t catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations Dynamic languages ie those that are dynamically-typed can often lead to run-time errors that would otherwise be caught with a compilation-time type-check For this reason, the concept of TDD see above and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone. Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type and thus memory requirements are known at compile-time In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit Libraries for dynamic languages, such as NumPy SciPy alleviate this issue due to enforcing a type within arrays. Open Source or Proprietary. One of the biggest choices available to an algorithmic trading developer is whether to use proprietary commercial or open source technologies There are advantages and disadvantages to both approaches It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing maintenance costs. The Microsoft stack including Visual C , Visual C and MathWorks MatLab are two of the larger proprietary choices for developing custom algorithmic trading software Both tools have had significant battle testing in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds. Microsoft and MathWorks both provide extensive high quality documentation for their products Further, the communities surrounding each tool are very large with active web forums for both The software allows cohesive integration with multiple languages such as C , C and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ MatLab also has many plugins libraries some free, some commercial for nearly any quantitative research domain. There are also drawbacks With either piece of software the costs are not insignificant for a lone trader although Microsoft does provide entry-level version of Visual Studio for free Microsoft tools play well with each other, but integrate less well with external code Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned. MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading The main issue with proprietary products is the lack of availability of the source code This means that if ultra performance is truly required, both of these tools will be far less attractive. Open source tools have been industry grade for sometime Much of the alternative asset space makes extensive use of open-source Linux, MySQL PostgreSQL, Python, R, C and Java in high-performance production roles However, they are far from restricted to this domain Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats. The main benefit of using interpreted languages is the speed of development time Python and R require far fewer lines of code LOC to achieve similar functionality, principally due to the extensive libraries Further, they often allow interactive console based development, rapidly reducing the iterative development process. Given that time as a developer is extremely valuable, and execution speed often less so unless in the HFT space , it is worth giving extensive consideration to an open source technology stack Python and R possess significant development communities and are extremely well supported, due to their popularity Documentation is excellent and bugs at least for core libraries remain scarce. Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces A typical Linux server such as Ubuntu will often be fully command-line oriented In addition, Python and R can be slow for certain execution tasks There are mechanisms for integrating with C in order to improve execution speeds, but it requires some experience in multi-language programming. While proprietary software is not immune from dependency versioning issues it is far less common to have to deal with incorrect library versions in such environments Open source operating systems such as Linux can be trickier to administer. I will venture my personal opinion here and state that I build all of my trading tools with open source technologies In particular I use Ubuntu, MySQL, Python, C and R The maturity, community size, ability to dig deep if problems occur and lower total cost ownership TCO far outweigh the simplicity of proprietary GUIs and easier installations Having said that, Microsoft Visual Studio especially for C is a fantastic Integrated Development Environment IDE which I would also highly recommend. Batteries Included. The header of this section refers to the out of the box capabilities of the language - what libraries does it contain and how good are they This is where mature languages have an advantage over newer variants C , Java and Python all now possess extensive libraries for network programming, operating system interaction, GUIs, regular expressions regex , iteration and basic algorithms. C is famed for its Standard Template Library STL which contains a wealth of high performance data structures and algorithms for free Python is known for being able to communicate with nearly any other type of system protocol especially the web , mostly through its own standard library R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code which can be found in portfolio optimisation and derivatives pricing, for instance. Outside of the standard libraries, C makes use of the Boost library, which fills in the missing parts of the standard library In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C 11 spec, including native support for lambda expressions and concurrency. Python has the high performance NumPy SciPy Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research Further, high-performance plugins exist for access to the main relational databases, such as MySQL MySQL C , JDBC Java MatLab , MySQLdb MySQL Python and psychopg2 PostgreSQL Python Python can even communicate with R via the RPy plugin. An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API Most APIs natively support C and Java, but some also support C and Python, either directly or with community-provided wrapper code to the C APIs In particular, Interactive Brokers can be connected to via the IBPy plugin If high-performance is required, brokerages will support the FIX protocol. As is now evident, the choice of programming language s for an algorithmic trading system is not straightforward and requires deep thought The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries. The benefit of a separated architecture is that it allows languages to be plugged in for different aspects of a trading stack, as and when requirements change A trading system is an evolving tool and it is likely that any language choices will evolve along with it. Just Getting Started with Quantitative Trading.

No comments:

Post a Comment