-
Page 2 (Related Work (3 p)): "are" -- were?
-
Page 2 (Related Work (3 p)): "62.5 % or 62.0 %" -- Kleinere Anzahl zuerst nennen?
-
Page 2 (Related Work (3 p)): "reported" -- Anderes Wort?
-
Page 2 (Related Work (3 p)): "bid or ask." -- Hier evtl. noch eine Erklärung einfügen?
-
Page 2 (Related Work (3 p)):
surpassing primary rules by more than 10.0 %, at the cost of data efficiency.
Vielleicht erklären, was das bedeutet?
-
Page 3 (Related Work (3 p)): "important" -- relevant
-
Page 3 (Related Work (3 p)):
Rosenthal (2012, pp. 481–482)
Quelle eher ans Satzende setzen?
-
Page 3 (Related Work (3 p)): "thus" -- Bin mir nicht sicher, ob man das wirklich so im Satz verwendet. Sehe es meistens am Satzanfang.
-
Page 3 (Related Work (3 p)):
Rosenthal (2012, p. 15)
Falsche Quellenangabe? Rosenthal gehört doch dicherlich in die Klammern.
-
Page 4 (Related Work (3 p)): "of" -- by?
-
Page 4 (Related Work (3 p)): "To the best of our knowledge," -- Dangling modifier.
-
Page 5 (Rule-Based Approaches): "that sign trades on a trade-bytrade basis" -- Was ist damit gemeint?
-
Page 6 (Quote Rule):
By definition, the quote rule cannot classify trades at the midpoint of the quoted spread.
Ist das dann nicht wiedersprüchlich zur vorherigen Defintion von m?
-
Page 6 (Quote Rule): "to couple" -- couepling?
-
Page 7 (Tick Test): "Equation 2" -- Equation 3?
-
Page 7 (Tick Test): "bracketed" -- Constrained
-
Page 7 (Tick Test):
In practice, Grauer et al. (2022, pp. 29–32) observe higher accuracies for the reverse tick test on a sample of option trades, but both cannot compete with quote-based approaches and calls for more sophisticated approaches. These findings contradict the results from the stock market (Lee & Ready, 1991, p. 737).
Bitte noch erklären, was das bedeutet. Der letzte Satz wirkt ziemlich verloren.
-
Page 9 (Hybrid Rules):
Popular variants include the Lee-Ready (LR) algorithm, the EMO rule, and the Chakrabarty-Li-Nguyen-Van-Ness (CLNV) method.
Gibt es dafür auch eine Quelle?
-
Page 11 (Lee and Ready Algorithm): "its parts." -- its subparts
-
Page 11 (Lee and Ready Algorithm): "cp." -- Warum cp?
-
Page 12 (Ellis-Michaely-O'Hara Rule): "caused" -- causes?
-
Page 12 (Chakrabarty-Li-Nguyen-Van-Ness Method):
(Chakrabarty et al., 2012, p. 3809)
Wieso steht die Quelle hier mittendrin?
-
Page 13 (Stacked Rule): "trend" -- Würde ein anderes Wort wählen.
-
Page 13 (Stacked Rule): "realize" -- unleash/unfold
-
Page 13 (Stacked Rule): "A obvious question is" -- Würde das weglassen.
-
Page 15 (Architectural Overview): "Transformer" -- Wieso hier kursiv und oben nicht?
-
Page 15 (Architectural Overview):
At times we fall back to the Transformer for machine translations, to develop a deeper understanding of the architecture and its components.
Kann weg, da es hier ja noch um die Hintergründe und nicht deine Arbeit geht.
-
Page 18 (Architectural Overview): "observation" -- anderes Wort?
-
Page 19 (Positional Encoding):
We visualize the positional encoding in Figure 4 with an embedding dimension of 96 and 64 tokens. One can see the alternating pattern between even and odd columns and the unique pattern for each token's position.
Basierend auf welchen Daten wurde das visualisiert oder gilt das Schaubild allgemein gültig?
-
Page 19 (Positional Encoding): "zero-centred, and" -- Komma kann weg?
-
Page 20 (Positional Encoding): "lement-wisely" -- per element?
-
Page 20 (Position-wise Feed-Forward Networks): "To retain general information on the task" -- Dangling modifier
-
Page 21 (Position-wise Feed-Forward Networks): "linearities to the network." -- Der Umbruch sieht komisch aus.
-
Page 21 (Residual Connections and Layer Normalization):
(He et al., 2015, pp. 1–2)
Die Quelle kann weg oder da es ja um die Arbeit von Vaswani geht?
-
Page 22 (Residual Connections and Layer Normalization): "calculated with the statistic" -- Wo gehört das dazu?
-
Page 22 (Residual Connections and Layer Normalization):
Until now it remains unclear, how the layer normalization intertwines with the sublayers and the residual connections.
Kann weg.
-
Page 23 (Transformer Networks For Tabular Data):
Both architectures are depicted in Figure 6a and Figure 6b, respectively
Würde die zugehörige Grafik auf der selben Seite platzieren.
-
Page 24 (TabTransformer): "To maintain the overall embedding dimension of de," -- Noch ein Dangling Modifier.
-
Page 24 (TabTransformer): "probabilities" -- probabilities outputs -> Dann wäre es gleich wie beim Input.
-
Page 25 (TabTransformer):
Somepalli et al. (2021, p. 2).
Huh?
-
Page 34 (Outlook (0.5 p=67.5 p)):
He, K., Zhang, X., Ren, S., & Sun, J. (2015). Deep residual learning for image recognition.
Evtl. einmal den Biber check laufen lassen, um fehlende Felder zu finden. Ist das ein Buch?
-
Page 37 (Glossary): "Item" -- Formatierung.