Download as pdf or txt
Download as pdf or txt
You are on page 1of 69

Jump SDEs and the Study of Their

Densities A Self Study Book Arturo


Kohatsu-Higa
Visit to download the full and correct content document:
https://ebookmeta.com/product/jump-sdes-and-the-study-of-their-densities-a-self-stud
y-book-arturo-kohatsu-higa/
More products digital (pdf, epub, mobi) instant
download maybe you interests ...

A aisa s Gifts A Study of Magic and the Self Michele


Stephen

https://ebookmeta.com/product/a-aisa-s-gifts-a-study-of-magic-
and-the-self-michele-stephen/

Ethnic Diversity and Solidarity A Study of Their


Complex Relationship 1st Edition Ferry Koster

https://ebookmeta.com/product/ethnic-diversity-and-solidarity-a-
study-of-their-complex-relationship-1st-edition-ferry-koster/

International Handbook of Self Study of Teaching and


Teacher Education Practices Julian Kitchen

https://ebookmeta.com/product/international-handbook-of-self-
study-of-teaching-and-teacher-education-practices-julian-kitchen/

Self Concept Learning Styles Study Habits and Academic


Achievement of Adolescents in Kashmir A study on
Psychological variables and academic achievement of
adolescents in Kashmir A study on Psychological
variables and academic achievement o 1st Edition Siraj
https://ebookmeta.com/product/self-concept-learning-styles-study-
habits-and-academic-achievement-of-adolescents-in-kashmir-a-
Shazia
study-on-psychological-variables-and-academic-achievement-of-
Interchange Intro Student s Book With Online Self Study
5th Edition Jack C. Richards

https://ebookmeta.com/product/interchange-intro-student-s-book-
with-online-self-study-5th-edition-jack-c-richards/

Self Assessment in Rheumatology An Essential Q A Study


Guide Yousaf Ali

https://ebookmeta.com/product/self-assessment-in-rheumatology-an-
essential-q-a-study-guide-yousaf-ali/

Architecture and the Mimetic Self A Psychoanalytic


Study of How Buildings Make and Break Our Lives 1st
Edition Lucy Huskinson

https://ebookmeta.com/product/architecture-and-the-mimetic-self-
a-psychoanalytic-study-of-how-buildings-make-and-break-our-
lives-1st-edition-lucy-huskinson/

Essential Grammar in Use with Answers and Interactive


eBook A Self Study Reference and Practice Book for
Elementary Learners of English 4th Edition Murphy

https://ebookmeta.com/product/essential-grammar-in-use-with-
answers-and-interactive-ebook-a-self-study-reference-and-
practice-book-for-elementary-learners-of-english-4th-edition-
murphy/

Japanese Grammar - A Workbook for Self-Study (Properly


Bookmarked) 1st Edition Masahiro Tanimori

https://ebookmeta.com/product/japanese-grammar-a-workbook-for-
self-study-properly-bookmarked-1st-edition-masahiro-tanimori/
Universitext

Arturo Kohatsu-Higa
Atsushi Takeuchi

Jump SDEs and


the Study of
Their Densities
A Self-Study Book
Universitext
Universitext

Series Editors
Sheldon Axler
San Francisco State University
Carles Casacuberta
Universitat de Barcelona
Angus MacIntyre
Queen Mary University of London
Kenneth Ribet
University of California, Berkeley
Claude Sabbah
École Polytechnique, CNRS, Université Paris-Saclay, Palaiseau
Endre Süli
University of Oxford
Wojbor A. Woyczyński
Case Western Reserve University

Universitext is a series of textbooks that presents material from a wide variety of


mathematical disciplines at master’s level and beyond. The books, often well
class-tested by their author, may have an informal, personal even experimental
approach to their subject matter. Some of the most successful and established books
in the series have evolved through several editions, always following the evolution
of teaching curricula, to very polished texts.

Thus as research topics trickle down into graduate-level teaching, first textbooks
written for new, cutting-edge courses may make their way into Universitext.

More information about this series at http://www.springer.com/series/223


Arturo Kohatsu-Higa Atsushi Takeuchi

Jump SDEs and the Study


of Their Densities
A Self-Study Book

123
Arturo Kohatsu-Higa Atsushi Takeuchi
Department of Mathematical Sciences Department of Mathematics
Ritsumeikan University Tokyo Woman’s Christian University
Kusatsu, Japan Tokyo, Japan

ISSN 0172-5939 ISSN 2191-6675 (electronic)


Universitext
ISBN 978-981-32-9740-1 ISBN 978-981-32-9741-8 (eBook)
https://doi.org/10.1007/978-981-32-9741-8
© Springer Nature Singapore Pte Ltd. 2019
This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or part
of the material is concerned, specifically the rights of translation, reprinting, reuse of illustrations,
recitation, broadcasting, reproduction on microfilms or in any other physical way, and transmission
or information storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar
methodology now known or hereafter developed.
The use of general descriptive names, registered names, trademarks, service marks, etc. in this
publication does not imply, even in the absence of a specific statement, that such names are exempt from
the relevant protective laws and regulations and therefore free for general use.
The publisher, the authors and the editors are safe to assume that the advice and information in this
book are believed to be true and accurate at the date of publication. Neither the publisher nor the
authors or the editors give a warranty, expressed or implied, with respect to the material contained
herein or for any errors or omissions that may have been made. The publisher remains neutral with regard
to jurisdictional claims in published maps and institutional affiliations.

This Springer imprint is published by the registered company Springer Nature Singapore Pte Ltd.
The registered company address is: 152 Beach Road, #21-01/04 Gateway East, Singapore 189721,
Singapore
Preface

The subject of jump-type stochastic processes has seen exponential growth in


applications during the past 50 years. Before that, it was mostly restricted to certain
areas of operations research and insurance mathematics. Nowadays it is commonly
applied to particle systems, neurology, geology and finance, among many other
disciplines. Therefore, it appears naturally in many applications problems.
On the other hand, it is a subject that may be easier to start studying, in com-
parison with Brownian motion, as the dynamics involved are much simpler at the
beginning.
For this reason, during the past few years, we have introduced this subject to
advanced undergraduate students and graduate students. The starting point of this
book was a seminar series directed by the first author at the Department of
Mathematical Science, Ritsumeikan University, given to advanced undergraduate
students. This book consists of two parts: the first part focuses on the stochastic
calculus for Lévy processes, while the second part studies the densities of stochastic
differential equations with jumps. The joining theme is the study first of densities of
Lévy processes and then of the densities of solutions of equations driven by Lévy
processes.
Our goal in the first part of the book is to give a simple and at the same time, a
somewhat broad overview of different types of jump processes starting from basic
principles. First, we start introducing simple Poisson processes with some basic
properties related to their jump times. Then, one quickly proceeds to the con-
struction of compound Poisson processes, and there we study their dynamics and
introduce the Itô formula in a simple way. That allows a quick introduction to
stochastic calculus which deals with the time evolution of these processes. We also
discuss stochastic equations driven by compound Poisson processes which can be
simply understood as random difference equations. Also important is the intro-
duction of Poisson random measures and the definition of Lévy processes so that a
more general structure to be introduced later is laid down gradually.

v
vi Preface

Through these two chapters, a first goal is achieved. That is, to grasp gradually a
first idea of the interest of studying Itô’s formula and stochastic equations and the
tools that will allow the study of more general Lévy-type processes. In these two
chapters, a number of important exercises are proposed with some hints of solu-
tions, which appear at the end of the book. This is done on purpose so that readers
try to enhance their knowledge through self-questioning and simple exercises. In
this sense, our primary goal was not to design a book to be used as a textbook
(which can be done too) but a self-study book.
Therefore, an important warning for readers: Do not skip the exercises! With this
in mind, we propose hints in a separate chapter to promote interaction of the reader
with the text. We have also tried to give some explanations on the meaning of
various important results. This is done because we have in mind a reader, who does
not have a lecturer guiding the reading. If at some point you do not understand
completely such an explanation, do not despair! It is probably our fault.
As in other textbooks, we also propose complementary exercises which may be
used to deepen your understanding of the subject. These are named “Problem”
throughout the text.
After two introductory chapters, we start describing the arguments through a
limit procedure in order to construct processes with the infinite frequency of jumps.
This is done in two steps: First, for processes of finite variation and then processes
of infinite variation. Again, our focus is not on generality but on simple principles
that will allow the young readers to understand the subject. Again, the topics of
Poisson random measures, Itô’s formula and stochastic equations appear. In par-
ticular, we clearly explain the need for compensation in order to define jump
processes with infinite variation. It is important to note here that the experience
of the results and exercises in Chaps. 5 and 6 are strongly used towards the end of
Chap. 6 and many results concerning the Itô formula and stochastic equations have
to be developed by the reader as exercises.
Up to this point, the processes introduced so far are one dimensional. At the end
of Chap. 6, we also describe other types of jump processes such as
non-homogeneous Poisson processes, multi-dimensional Lévy processes and sub-
ordinated Brownian motions.
As a preparation for the second part of the book we have introduced in Chap. 7,
the study of flows associated with stochastic equations. The style here is also
modern, and aligns with current techniques striving for a simple proof which uses
approximations.
This could be also used as the entrance door to more advanced courses or
advanced textbooks (e.g., [2, 8, 41, 51, 52]). A reader interested in learning the
deeper and exciting theory of jump processes and its associated calculus should
proceed this way.
Preface vii

This chapter also serves as an introduction to the second part of the book, where
we will be interested in the infinite-dimensional integration by parts formula for
stochastic equations driven by jump processes. This topic is not available in the
previous given references.
In Chap. 8, we briefly give a general overview of the second part of the book.
The second part of the book is slightly more advanced, although the first three
chapters use only very basic principles. It tries to take the reader into learning an
infinite-dimensional integration by parts formula which can be used at research
level. Chapter 9 introduces the analytical techniques through Fourier analysis that
one may use in order to study densities. This also serves to understand why the
integration by parts formula is important in order to understand the behavior of
densities of random variables associated with solutions of stochastic equations.
Chapter 12 is written in a simple style trying to introduce the basic ideas of the
integration by parts formula in infinite-dimensional analysis. It definitely differs
from other books on the subject, because we strive to explain various approaches
using simple ideas and examples and avoid the use of advanced mathematics or
giving a general theory to deal with the most general situations.
We proceed in Chap. 11 to apply these ideas to some simple examples that
appear in the calculation of the Greeks in finance. This may be also interpreted and
used in other jump models and gives the ideas that will be fully developed in
subsequent chapters.
Chapter 12 is the entrance door to a different level of complexity. Here, we start
describing the Norris method (cf. [45]) for the integration by parts formula.
Towards the end of this chapter we compare this technique with the Bismut method,
which is based on Girsanov’s change of measure theorem in order to achieve an
integration by parts formula.
Then we proceed to apply this technique to solutions of stochastic equations. In a
final challenging chapter for the reader (as it was for the authors) we use as a
research sample a problem for which the application of all the introduced concepts
is not easy. We took the model studied by Bally-Fournier [7] related to the
Boltzmann equation in physics.
Through this streamlined path, we hope that the book will help young students to
get a glimpse of what jump processes are, how they are studied and to achieve a
level which may be close to a research-level problem. Clearly, the present book
does not discuss many other interesting topics related to jump processes. Again, our
goal was not to give a broad view of the subject with details but just draw a path
that may allow the inexperienced reader to have a glimpse of one research topic.
For other detailed properties of Lévy processes, we refer the reader to other books
(e.g., [8, 41, 51]). For books dealing with other related techniques in the area of
infinite-dimensional calculus for jump-type processes, we refer to e.g., [9, 15, 31].
Notably, we do not touch on the topic of continuous-type Lévy processes such as
viii Preface

Brownian motion. The reason for this is that we believe that the path characteristics
of Brownian motion may cloud the explanation about jump processes. Also, we
believe that there are many other textbooks that the young reader may use in order to
obtain some basic information on Brownian motion, its basic properties and asso-
ciated stochastic calculus and stochastic equations. See [30, 34, 43, 44, 46, 49, 53].
The style of the text is adapted to self-study and therefore an instructor using this
book may have to streamline the choice of topics. In this sense, we have modeled
the book so that readers who may be studying the topic on their own can realize the
importance of arguments that otherwise one may only see once in an advanced
book.
For instructors using this book:
1. The text has repetitive ideas so that the students will find how they are used in
each setting and understand their importance.
2. The first part of the book is basic, while the second is more advanced and
specialized, although it uses basic principles.
3. We assume knowledge of basic probability theory. No knowledge of stochastic
processes is assumed, although it is reccomended.
4. Some of the deeper results about measurability or stochastic analysis are given
but not proven. Such is the case of the Burkholder–Davis–Gundy inequality for
jump processes or Lebesgue–Stieltjes integration.
5. There are certain issues that are avoided in the text in order not to distract the
reader from the main text. These are, for example, the BDG inequalities,
modifications of stochastic processes, etc. They are briefly mentioned in the text
referring to other textbooks.
6. As a way to guide the reader through the book in the best order some possi-
bilities are proposed in the following flowchart. The dotted lines mean that they
are not essential to design a course but they could be used as topics to conclude
the instruction. The topics at Level 1 are easily accessible for a student with
basic knowledge of probability theory. In Chap. 5, one may exclude Sects. 5.4,
5.5 and 5.6 in a first reading.
Preface ix

Level 2

Level 1

Review Chapter 1

Chapter 2 Chapter 4
Part I Chapter 6
Chapter 3 Chapter 5

Chapter 7

Chapter 8
Chapter 11
Part II Chapter 9 Chapter 13
Chapter 12
Chapter 10

7. In Sect. 5.3 and Chap. 7, we hint at how the proofs can be carried out using the
experience built in previous chapters. Still, one may use [2] in order to com-
plement the proofs which are not given in detail.

Kusatsu, Japan Arturo Kohatsu-Higa


Tokyo, Japan Atsushi Takeuchi
April 2019
Acknowledgements

AK-H would like to thank all the colleagues and students, who have shared their
views with him about this project, in particular, all the students who actively
participated in the seminar series at Ritsumeikan University. Their comments and
active participation have shaped the current form of the book.
AT used these notes as a basis for lectures at Osaka City University. That helped
the book to be definitive. He thanks the students who participated in these lectures.

xi
Contents

1 Review of Some Basic Concepts of Probability Theory . . . . . . . . . . 1


1.1 Characteristic Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Conditional Expectation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

Part I Construction of Lévy Processes and Their Stochastic Calculus


2 Simple Poisson Process and Its Corresponding SDEs . . . . . ...... 11
2.1 Introduction and Poisson Process . . . . . . . . . . . . . . . . . ...... 11
2.1.1 Preliminaries: The Poisson and the Exponential
Distribution . . . . . . . . . . . . . . . . . . . . . . . . . . ...... 11
2.1.2 Definition of the Poisson Process . . . . . . . . . . ...... 16
3 Compound Poisson Process and Its Associated Stochastic
Calculus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1 Compound Poisson Process . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Lévy Process . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3 Poisson Random Measure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4 Stochastic Calculus for Compound Poisson Processes . . . . . . . . 41
3.4.1 Compensated Poisson Random Measure . . . . . . . . . . . 44
3.4.2 The Itô Formula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5 Stochastic Integrals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.6 Stochastic Differential Equations . . . . . . . . . . . . . . . . . . . . . . . 64
4 Construction of Lévy Processes and Their Corresponding
SDEs: The Finite Variation Case . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1 Construction of Lévy Processes: The Finite Variation Case . . . . 71
4.1.1 Itô Formula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2 Differential Equations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

xiii
xiv Contents

5 Construction of Lévy Processes and Their Corresponding


SDEs: The Infinite Variation Case . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.1 Construction of Lévy Processes: The Infinite Variation
Case . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2 Itô Formula for the Lévy Process Z . . . . . . . . . . . . . . . . . . . . . 110
5.3 Stochastic Integrals with Respect to Infinite Variation Lévy
Processes and Their Corresponding SDEs . . . . . . . . . . . . . . . . 112
5.4 Some Extensions of Jump Processes . . . . . . . . . . . . . . . . . . . . 118
5.5 Non-homogeneous Poisson Process . . . . . . . . . . . . . . . . . . . . . 120
5.5.1 Stochastic Equation Driven by a Poisson Process . . . . . 121
5.5.2 Generator: Time Homogeneous Case . . . . . . . . . . . . . . 123
5.5.3 Generator: Non-homogeneous Case . . . . . . . . . . . . . . . 124
5.5.4 Generator for the Solution to the SDE . . . . . . . . . . . . . 124
5.5.5 SDE Driven by Poisson Process . . . . . . . . . . . . . . . . . 125
5.6 Subordinated Brownian Motion . . . . . . . . . . . . . . . . . . . . . . . . 129
6 Multi-dimensional Lévy Processes and Their Densities . . . . . . . . . . 131
6.1 Infinitely Divisible Processes in Rd . . . . . . . . . . . . . . . . . . . . . 132
6.2 Classification of Probability Measures . . . . . . . . . . . . . . . . . . . 136
6.3 Densities for Lévy Processes . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.4 Stable Laws in Dimension Two . . . . . . . . . . . . . . . . . . . . . . . . 142
7 Flows Associated with Stochastic Differential Equations
with Jumps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
7.1 Stochastic Differential Equations . . . . . . . . . . . . . . . . . . . . . . . 145
7.2 Stochastic Flows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.3 Remark . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

Part II Densities of Jump SDEs


8 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.2 Explaining the Methods in Few Words . . . . . . . . . . . . . . . . . . 158
9 Techniques to Study the Density . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
9.1 On an Approximation Argument . . . . . . . . . . . . . . . . . . . . . . . 162
9.2 Using Characteristic Functions . . . . . . . . . . . . . . . . . . . . . . . . . 165
9.3 An Application for Stable Laws and a Probabilistic
Representation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
10 Basic Ideas for Integration by Parts Formulas . . . . . . . . . . . . . . . . 173
10.1 Basic Set-Up . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
10.1.1 The Unstable IBP Formula . . . . . . . . . . . . . . . . . . . . . 175
Contents xv

10.2 Stability by Summation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180


10.2.1 Example: Diffusion Case . . . . . . . . . . . . . . . . . . . . . . 181
10.3 The Change of Variables Method . . . . . . . . . . . . . . . . . . . . . . 182
10.4 IBP with Change of Weak Representation Formula . . . . . . . . . . 186
10.4.1 The Plain Change of Variables Formula . . . . . . . . . . . 187
10.4.2 The Change of Representation Argument
by Sum and Convolution . . . . . . . . . . . . . . . . . . . . . . 188
10.5 The Case of Jump Processes . . . . . . . . . . . . . . . . . . . . . . . . . . 191
10.5.1 The Picard Method . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
11 Sensitivity Formulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
11.1 Models Driven by Gamma Processes . . . . . . . . . . . . . . . . . . . . 204
11.2 Stable Processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
11.2.1 Alternative Probabilistic Representation
for Stable Random Variables . . . . . . . . . . . . . . . . . . . . 209
11.2.2 Sensitivity Analysis on Stable Processes . . . . . . . . . . . 212
11.3 Sensitivity Analysis for Truncated Stable Processes . . . . . . . . . 216
11.4 Sensitivity Analysis for Tempered Stable Processes . . . . . . . . . 220
11.5 Inverting the Stochastic Covariance Matrix . . . . . . . . . . . . . . . . 224
11.6 Sensitivity for Non-smooth Test Functions . . . . . . . . . . . . . . . . 227
12 Integration by Parts: Norris Method . . . . . . . . . . . . . . . . . . . . . . . 231
12.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
12.2 Set-Up . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
12.3 Hypotheses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
12.4 Variational Calculus on the Poisson Space . . . . . . . . . . . . . . . . 238
12.5 Approximation of SDEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
12.6 Relation with Bismut’s Approach . . . . . . . . . . . . . . . . . . . . . . 256
12.6.1 Girsanov Transformations . . . . . . . . . . . . . . . . . . . . . . 256
12.6.2 Changing the Jump Size . . . . . . . . . . . . . . . . . . . . . . . 259
12.6.3 Construction of Deformation Functions
and Explicit Examples . . . . . . . . . . . . . . . . . . . . . . . . 263
13 A Non-linear Example: The Boltzmann Equation . . . . . . . . . . . . . . 269
13.1 Two-Dimensional Homogeneous Boltzmann Equations . . . . . . . 269
13.2 Stochastic Representation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
13.3 Approximation to the Process V . . . . . . . . . . . . . . . . . . . . . . . 274
13.4 IBP Formula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
13.5 Negative-Order Integrability of Malliavin Weight . . . . . . . . . . . 291
13.6 Upper Estimate of Malliavin Weight . . . . . . . . . . . . . . . . . . . . 297
13.7 Higher-Order IBP Formula . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
13.8 Decay Order of the Characteristic Function of Vt . . . . . . . . . . . 311
14 Further Hints for the Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
xvi Contents

Appendix A: Afterword . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347


References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
Notations

Throughout the text, we use the following notation. Other notation which is not
basic to this text and which is defined through the developed theory can be found at
the end of the index.

A The transpose of the matrix A


Id  I The identity matrix on Rd  Rd is the identity matrix
ek ek ¼ ð0; . . .; 0; 1; 0; . . .; 0Þ . The k-th unit vector in Rd for
k ¼ 1; . . .; d
Rm 0 :¼ Rm nf0g
Rþ :¼ ½0; 1Þ
N :¼ N [ f0g
r.v. Random variable or random vector
i.i.d.r.v.’s Independently and identically distributed random variables
(vectors)
a:s: Almost surely
MðRÞ Space of R-measurable (real-valued) functions
Mb ðRÞ Space of bounded R-measurable functions
(LHS) When dealing with long equalities. Left-hand side. Similarly
(RHS)
càdlàg Functions whose domain is included in R, which are
right-continuous with left-hand limits
]ðAÞ The cardinality operator, which is the number of elements in the
set A. Sometimes may also be denoted by jAj if no confusion
arises
hx; yi  x  y Inner product between two vectors x and y 2 Rd
x The transpose of the vector x. All vectors are column vectors
unless stated otherwise
jxj The norm of the vector x 2 Rd
k Ak The norm of the matrix
A :¼ supfjAxj; jxj ¼ 1g ¼ maxfk; 9x 6¼ 0; Ax ¼ kxg

xvii
xviii Notations

BðSÞ The Borel r-algebra (r-field) on S. In the case that S ¼ R we


use B :¼ BðRÞ
B1  B2 The product r-field completed with the subsets of sets of
measure zero
rðAÞ The r-field generated by the collection of random variables A
or collection of sets A. This r-field is always assumed to be
completed with the null sets of the probability space
LebðAÞ The Lebesgue measure of the Lebesgue measurable set A
E½X; EðXÞ Expectation of the random variable X
E½XjF Conditional expectation of X conditioned to F
L The random variables or processes X and Y have the same law
X ¼Y
ExpðkÞ Exponential distribution with parameter k
Gamma ðh; rÞ Gamma distribution with scale parameter h and shape parameter
r
X D X is a random variable with distribution D
da ðAÞ The Dirac point mass measure evaluated at the set A
1A ðxÞ Indicator function. In the case that A  X we may simplify the
notation to 1A . Sometimes we may also use, e.g., 1 ðx [ 0Þ
sgnðxÞ sgnðxÞ :¼ 1ðx [ 0Þ 1ðx\0Þ : The sign (or signum) function
Xt ¼ lims"t Xs Limit on the left of X at t
X þ :¼ X _ 0 The positive part of X
X :¼ ð XÞ _ 0 The negative part of X
b xc The floor function (also called greatest integer function)
lν The convolution of measures l and ν
ln ln ¼ l      l. The n-th convolution power of the measure l.
Similarly, we use f n as the n-th convolution power of the
function f
lν The product of the measures l and ν
ln Similarly, defines the n-th product of the measure l with itself
kR f k1 k f k1 :¼ supx jf ðxÞj. The uniform norm
Rd f ðxÞdx Multi-dimensional integral for f : Rd ! R
@a f Given the multi-index a ¼ ða1 ; . . .; a‘ Þ with length jaj ¼ ‘, this
symbol denotes the multiple partial derivative of f with respect
to the variables indicated in a. Sometimes, we may use the
notation @z f to indicate the gradient derivative with respect to
the variable z. In the one-dimensional case, we use f 0 for ‘ ¼ 1
ð@z Þa f This is a short notation for @z f ðaÞ used when f depends on many
variables
rf The gradient of f. In the one-dimensional case may be used to
indicate derivative with respect to space variables
div f The divergence of a function f with respect to all its variables.
We may use divz f if f depends on other variables and we want
to take the divergence with respect to the vector variable z
Notations xix

C k ðA; BÞ The space of ½k times continuous differentiable functions with


½k-th order derivative which is a k ½k-Hölder continuous
function
C0k ðA; BÞ The subspace of functions in C k ðA; BÞ which tend to zero at
infinity
Cck ðA; BÞ The subspace of functions in C k ðA; BÞ with compact support
Cbk ðA; BÞ The subspace of functions in C k ðA; BÞ with bounded deriva-
tives. Note that the functions themselves do not need to be
bounded
Cpk ðA; BÞ The subspace of functions in C k ðA; BÞ with derivatives which
may grow at most with a polynomial order p 2 N
Br ðxÞ The ball in Rd of center x 2 Rd with radius r 0. Sometimes,
we simplify the notation with Br ¼ Br ð0Þ
Lp ðRd Þ Lp ðRd Þ  Lp ðRd ; Rk Þ. The space of Rk -valued measurable
functions defined on Rd with respect to the Lebesgue measure
such that its p moment is finite
Lp ðX; Rk Þ The space of random vector of dimension k under a measure P
which is understood from the context. Sometimes we may use
the simplified notation Lp ðXÞ
/ðxÞ jxj2
/ðxÞ :¼ 1
expð 2 Þ. The density for the standard Gaussian
ð2pÞd=2
distribution with mean zero and identity covariance matrix
UðxÞ The distribution function associated with the standard Gaussian
distribution with mean zero and identity covariance matrix

We use i to denote the imaginary unit. Sometimes the same symbol is used as an
index i 2 N. The meaning should be clear from the context. In the space of complex
numbers, ReðzÞ and ImðzÞ denote the real and imaginary parts of the complex
number z 2 C.
When describing collections of items such as functions, stopping times or ran-
dom variables which are understood as processes, we may use one of the following
various notations:

X  fXt ; t 2 Ag  fXt gt2A

Domains of integration are sometimes explicitly written. Otherwise, we may


omit it in cases where it is clear what the domain of integration (usually the whole
space) should be from the context. A similar statement is valid for the notation of
function spaces and their range of values.
Chapter 1
Review of Some Basic Concepts
of Probability Theory

In this chapter many mathematical details or proofs are not given so we refer the
reader to the appropriate references in basic probability theory. See for example [10,
60].
We will always work on a complete probability space (Ω, F , P) which we assume
contains all the r.v.s that are required for the arguments. In particular, one may have
to consider products of probability spaces in order to construct a probability space
containing certain sequences of i.i.d.r.vs.
Also we remark for the inexperienced reader that the monotone class theorem has
different versions and therefore you should pick up on the one that is used in each
proof. For a list of some versions of this theorem, see Chapter 0 in [49].
Definition 1.0.1 Let (Ω, F , P) be a probability space. A mapping X : Ω → Rd
is an Rd -valued random vector if it is M (F )-measurable. The measure PX (B) :=
P(X ∈ B) is called the law or distribution of X . It may be further denoted by FX
when using it as a distribution function FX (x) := P(X i ≤ xi , i = 1, ..., d).
Lemma 1.0.2 If σ (X n ; n ∈ N) and σ (Yn ; n ∈ N) are independent σ -fields1 and
limn→∞ (X n , Yn ) = (X, Y ) a.s., then X and Y are independent.2
Exercise 1.0.3 Prove Lemma 1.0.2.

1.1 Characteristic Function

The concept of the characteristic function replaces the moment generating function
when one wants to study the fine details of the distribution function of the random
variable.3 If fact, it is not true that there is a one-to-one correspondence between

1 We assume as usual that these σ -fields are complete.


2 The notation lim denotes limits for functions or in the case of random variables this denotes limits
in the (a.s.) sense. This may also be denoted using the symbol →.
3 This is somewhat equivalent to replacing Laplace transforms by Fourier transforms.

© Springer Nature Singapore Pte Ltd. 2019 1


A. Kohatsu-Higa and A. Takeuchi, Jump SDEs and the Study of Their Densities,
Universitext, https://doi.org/10.1007/978-981-32-9741-8_1
2 1 Review of Some Basic Concepts of Probability Theory

moment functions and distribution functions. This fact, becomes true only when
one studies characteristic functions as they are always well defined. The concept of
characteristic functions is usually not fully covered in standard undergraduate level
courses and for this reason we slightly enlarge the contents with some exercises.
The intention of this section is to give some information so that the reader may
grasp a first idea of the concepts. A more detailed discussion is presented in Chap. 9.
Definition 1.1.1 (Characteristic function) The characteristic function ϕ(= ϕ X ) of
a random variable X is defined as the map ϕ : R → C such that for all θ ∈ R,

ϕ(θ ) := E[eiθ X ] = E[cos(θ X )] + iE[sin(θ X )].

Note that the above expectations are always well defined. This is the main reason for
using characteristic functions in comparison with the moment generating function
which most students learn in basic probability courses. See also the next exercise.4
We may also say sometimes that ϕ is the characteristic function of the measure PX .
In particular, PX is the image law P ◦ X −1 . That is, PX (A) = P(X ∈ A) for A ∈ B.

Exercise 1.1.2 Let X = e Z where Z ∼ N (0, 1) is the standard Gaussian (normal)


distribution. In general, N (a, b) denotes the normal distribution with mean a and
variance b > 0. Prove that E[θ X ] = ∞ for all θ > 0.
Still the moment function is not that bad. That is, if it exists in a neighborhood
of 0 then the corresponding distribution is uniquely characterized by the moment
generating function.5 Note that another version of the moment generating function
is the Laplace transform of X which is defined as E[eθ X ] and is very useful in many
situations when it is finite. The Laplace transform can be defined for θ < 0 and X
a positive random variable. It is also a very useful tool to solve ordinary and partial
differential equations. Still, it is a good idea that one starts to get acquainted with the
characteristic function which is always a well-defined function.
Corollary 1.1.3 Let ϕ = ϕ X be the characteristic function of a random variable X .
Then the following properties are satisfied:
1. ϕ(0) = 1,
2. |ϕ(θ )| ≤ 1, ∀θ ∈ R,
3. θ → ϕ(θ ) is uniformly continuous on R,
4. ϕ(−X ) (θ ) = ϕ X (θ ), ∀θ ∈ R,
5. ϕa X +b (θ ) = eibθ ϕ X (aθ ).
Theorem 1.1.4 If X, Y are independent random variables, then

ϕ X +Y (θ ) = ϕ X (θ )ϕY (θ ), ∀θ ∈ R.

4 Ifyou have more experience in analysis, maybe you have learned this concept as the so called
Fourier transform. Although there is a slight variation here as in most books, one starts with periodic
functions.
5 See e.g. Section 30 in [10].
1.1 Characteristic Function 3

Exercise 1.1.5 Prove that if ϕ(θ ) is the characteristic function of a random variable
X then |ϕ(θ )|2 and Re(ϕ(θ )) are also characteristic functions. Find random variables
associated with these characteristic functions.

Theorem 1.1.6 (Lévy’s continuity theorem) Let X , X n , n ∈ N be a sequence of


random variables with characteristic functions ϕ X , ϕ X n , n ∈ N. Then ϕ X n (θ ) →
ϕ X (θ ) for all θ ∈ R if and only if X n converges in law to X .

Theorem 1.1.7 (Bochner theorem) Let ϕ : R → C be a positive definite function,6


continuous at 0 with ϕ(0) = 1. Then there exists some probability measure so that
its characteristic function is given by ϕ.

Definition 1.1.8 For a given n-dimensional random vector X , we say that f : Rn →


R+ is its density function if for any bounded measurable function with compact
support g, we have the following equality:

E[g(X )] = g(x) f (x)d x.

The above integral is understood as a Lebesgue integral.

Exercise 1.1.9 Suppose that the distribution of X given by F(x) := P(X i ≤ xi ; i =


1, ..., n) in the above definition is differentiable. Then prove that its derivative
∂(1,...,n) F(x) is the density function of X .

Note that the uniqueness of the density function is only true in the a.s. sense.

Theorem 1.1.10 (Lévy’s inversion theorem) Suppose that ϕ is the characteristic


function of some random variable. Furthermore, assume that it is integrable in the
sense that 
|ϕ(θ )|dθ < ∞.
R

Then there exists a positive function f such that



ϕ(θ ) = eiθ x f (x)d x.
R

A sharper statement which is always true is that if F denotes the distribution function
of the random variable for which ϕ is its characteristic function, then

1 T
e−iθa − e−iθb
F(b) − F(a) = lim ϕ(θ )dθ. (1.1)
2π T →∞ −T iθ

n
6 That is, i, j=0 ϕ(θi − θ j )z i z̄ j ≥ 0 for any sequence of real numbers θi ∈ R and z i ∈ C, i =
1, ..., n.
4 1 Review of Some Basic Concepts of Probability Theory

At any rate, this result implies that for every characteristic function only one distri-
bution function can be associated with it. In other words, two different distribution
function can not have the same characteristic function.
Another interesting way of looking at this result is that the linear space generated
by complex exponential functions contain indicator functions. In fact, on the (RHS)
of the above equation we see an integral combination of exponential functions in
 T −iθa −e−iθ b iθ x
the form of −T e iθ e dθ and on the (LHS) we have the 1(a,b] (x). Therefore
again, complex exponential functions generate all the space of measurable functions
and therefore this is the reason as to why the one-to-one correspondence between
characteristic functions and probability measures. We will see more about this in
Chap. 9.

Exercise 1.1.11 Deduce from (1.1) that if R |ϕ(θ )|(1 + |θ |) p dθ < ∞ for any p >
0 then the density function associated with ϕ exists and is infinitely differentiable
with bounded derivatives. A similar result is also valid in the multi-dimensional case.
Theorem 1.1.12 (Characteristic functions and independence) The sequence of ran-
dom variables X 1 , · · · , X N are independent if and only if for any ξ = (ξ1 , ..., ξ N ) ∈
RN ,

  N  N
E exp i ξj X j = E[exp(iξ j X j )].
j=1 j=1

Proof We just prove the “only if" part. Let X = (X 1 , · · · , X N ). Then


   

(L H S) = E exp iξ ∗ X = eiξ x PX (d x),
RN
N    N
(R H S) = e iξ j x j
PX j (d x j ) = ··· eiξ j x j PX 1 (d x1 ) · · · PX N (d x N )
j=1 R R R j=1


= eiξ x PX 1 ⊗ · · · ⊗ PX N (d x).
RN

From Theorem 1.1.10 (Lévy’s inversion theorem), we have

PX = PX 1 ⊗ · · · ⊗ PX N .

Hence,

P(X 1 ∈ E 1 , · · · , X N ∈ E N ) = P(X ∈ E 1 × · · · × E N ) = PX (E 1 × · · · × E N )
= PX 1 ⊗ · · · ⊗ PX N (E 1 × · · · × E N ) = PX 1 (E 1 ) · · · PX N (E N )
N
= P(X j ∈ E j ).
j=1

Therefore X 1 , · · · , X N are independent.


1.1 Characteristic Function 5

Exercise 1.1.13 The following exercise may clarify for the inexperienced the role
of characteristic functions.
1. Given a, b ∈ R, prove that the only real solutions p, q for the equation

peiθa + r eiθb = 0, ∀θ ∈ R

can be classified as
p = 0, r = 0; if a = b,
p = −r ; if a = b.

Note that the above statement is linked to the linear independence of functions.
2. Let X , Y be two random variables which take two different values a and b. Prove
that if ϕ X (θ ) = ϕY (θ ) for all θ ∈ R then P(X = a) = P(Y = a) and therefore
the laws of X and Y are equal.
3. Suppose that X takes two values a and b and Y take two values a and c. Prove
that if ϕ X (θ ) = ϕY (θ ) for all θ ∈ R then c = b and P(X = a) = P(Y = a) and
therefore the laws of X and Y are equal.
Notice that for all the above statements to be valid one does not need to require the
validity for all θ ∈ R. Propose a statement with weaker requirements. Think about the
generalization to discrete random variables X taking n different values respectively
and Y taking m different values.
In particular, note the relation with Theorem 1.1.10. In fact, given the characteristic
function ϕ X (θ ) of a random variable X taking the values a and b, then multiplying
it by the function e−iθa will give that the constant term of e−iθa ϕ X (θ ) corresponds
to P(X = a). This is therefore linked with the residue theorem of complex analysis.
On this last point, one has to be careful in the calculation as the point 0 which is a
singular point lies on the path of the integral in (1.1).

1.2 Conditional Expectation

X is a random variable on the probability triple (Ω, F , P) with E[|X |] < ∞. Let
G be a sub σ -algebra of F . Then there exists a random variable Y such that: (i)
Y ∈ M (G ), (ii) E[|Y |] < ∞, (iii) for every G ∈ G with G Y dP = G X dP.

Definition 1.2.1 (Conditional expectation) In the discussion above, the random vari-
able Y satisfying properties (i)–(iii) is called a version of the conditional expectation
E[X |G ].

From the definition, one obtains the a.s. uniqueness of the conditional expectation.
That is, for two random variables X 1 , X 2 such that X 1 = X 2 , a.s. then their corre-
sponding conditional expectations are also equal a.s. In this sense the word version
is used in the above definition.
6 1 Review of Some Basic Concepts of Probability Theory

Theorem 1.2.2 (Some properties of conditional expectation) Let G and H be


sub σ -algebras of F . Then all the following statements are true supposing that all
random variables appearing in the corresponding statement satisfy the conditions
for the existence of conditional expectations:
1. If Y is any version of E[X |G ], then E[Y ] = E[X ].
2. If X is G -measurable, then E[X |G ] = X, a.s.
3. E[a1 X 1 + a2 X 2 |G ] = a1 E[X 1 |G ] + a2 E[X 2 |G ].
4. If X ≥ 0, a.s., then E[X |G ] ≥ 0 a.s.
5. If 0 ≤ X n ↑ X , then E[X n |G ] ↑ E[X |G ], a.s.
6. If X n ≥ 0, then E[lim inf X n |G ] ≤ lim inf E[X n |G ].
7. If H is a sub σ -algebra of G , then E[E[X |G ]|H ] = E[X |H ], a.s.
8. If Z is a bounded G -measurable r.v., then E[Z X |G ] = Z E[X |G ], a.s.
9. If H is independent of σ (σ (X ), G ), then E[X |σ (G , H )] = E[X |G ], a.s.

Lemma 1.2.3 Let X, Y be two random variables on the probability space (Ω, F , P).
Furthermore, let G be a sub σ -algebra of F independent of σ (X ) and Y be a G -
measurable. If f : R2 → R is a bounded measurable function, then

E[ f (X, Y )|G ] = g f (Y ), a.s.,

where g f (y) := E[ f (X, y)].

Proof Define a class of functions H by

H := { f ∈ Mb (R2 ); E[ f (X, Y )|G ] = g f (Y ), a.s.}.

Here Mb (A) stands for the set of bounded measurable functions defined in R2 . Then
we will show that H = Mb (R2 ) by the monotone class theorem (see e.g. [60],
Sect. 3.14).
(i) For f, f 1 , f 2 ∈ H , α ∈ R, since

E[( f 1 + f 2 )(X, Y )|G ] = E[ f 1 (X, Y )|G ] + E[ f 2 (X, Y )|G ]


= g f1 (Y ) + g f2 (Y ) = g f1 + f2 (Y ),
E[(α f )(X, Y )|G ] = αg f (Y ) = gα f (Y ),

we have f 1 + f 2 , α f ∈ H , so H is a vector space on R.


(ii) Since E[1R2 (X, Y )|G ] = 1 = g1R2 (Y ), 1R2 ∈ H .
(iii) If ( f n ) is a sequence of non-negative functions in H such that f n ↑ f , where
f is a bounded function, then using Theorem 1.2.2 (5) we have

E[ f (X, Y )|G ] = lim E[ f n (X, Y )|G ] = lim E[ f n (X, y)|G ]| y=Y


n→∞ n→∞
= E[ f (X, y)|G ]| y=Y = g f (Y ),
1.2 Conditional Expectation 7

hence f ∈ H .
(iv) For (a, b) × (c, d) ∈ I := {(a, b) × (c, d); a, b, c, d ∈ R},

E[1(a,b)×(c,d) (X, Y )|G ] = 1(c,d) (Y )E[1(a,b) (X )|G ] = 1(c,d) (y)E[1(a,b) (X )]| y=Y
= E[1(a,b)×(c,d) (X, y)]| y=Y = g1(a,b)×(c,d) (Y ),

hence 1(a,b)×(c,d) ∈ H . Therefore H = Mb (R2 ).

Definition 1.2.4 The convolution μ of two distributions (or finite measures) on Rd


is a distribution (finite measure) denoted by μ = μ1 ∗ μ2 and defined by
 
μ(B) = 1 B (x + y)μ1 (d x)μ2 (dy), B ∈ B(Rd ).
Rd Rd

Definition 1.2.5 The convolution of two functions f and g is denoted by f ∗ g and


defined as

f ∗ g(z) = f (z − x)g(x)d x.

Here we suppose that the above integral is finite for all z.

Exercise 1.2.6 Prove that if the measures μ1 and μ2 are absolutely continuous with
respect to the Lebesgue measure with densities f and g respectively then the convo-
lution measure is absolutely continuous and its density is given by the convolution
of the two densities.7

7 Note that we are already assuming that equality as functions means equality a.e. Hint: If you want

more information you can check also Proposition 6.1.1.


Part I
Construction of Lévy Processes and Their
Stochastic Calculus
Chapter 2
Simple Poisson Process and Its
Corresponding SDEs

2.1 Introduction and Poisson Process

Poisson processes are generalizations of the Poisson distribution which are often
used to describe the random behavior of some counting random quantities such as
the number of arrivals to a queue, the number of hits to a webpage etc.

2.1.1 Preliminaries: The Poisson and the Exponential


Distribution

As a preliminary, before introducing the Poisson process, we give basic properties


of some related distributions.
Definition 2.1.1 (Exponential distribution) A positive random variable T is said to
follow an exponential distribution with parameter λ > 0 if it has a probability density
function of the form

λe−λt 1[0,∞) (t).

We denote this fact with T ∼ Exp(λ).

Theorem 2.1.2 Let T ∼ Exp(λ). Then the distribution function of T is given by

∀y ∈ [0, ∞), FT (y) = P(T ≤ y) = 1 − exp(−λy).

FT is invertible and its inverse is given by

1
∀t ∈ [0, 1), FT −1 (t) = − log(1 − t).
λ

© Springer Nature Singapore Pte Ltd. 2019 11


A. Kohatsu-Higa and A. Takeuchi, Jump SDEs and the Study of Their Densities,
Universitext, https://doi.org/10.1007/978-981-32-9741-8_2
12 2 Simple Poisson Process and Its Corresponding SDEs

The mean and variance of T is given by

1 1
E[T ] = , Var[T ] = 2 .
λ λ
Corollary 2.1.3 If S is an exponential random variable with parameter 1 then S/λ
is an exponential random variable with parameter λ.
Proof We just check  that thedistribution function of S/λ forms an exponential
S
distribution. In fact, P ≤ t = P(S ≤ λt) = 1 − e−λt .
λ
Lemma 2.1.4 (Absence of memory) If T is an exponential random variable then

∀t, s > 0, P(T > t + s|T > t) = P(T > s).

Proof We calculate as below:

P(T > t + s, T > t)


P(T > t + s|T > t) = = exp(−λs) = P(T > s).
P(T > t)

The following proposition tells us that the only continuous1 distribution which
possesses the abscence of memory2 property is the exponential distribution.
Proposition 2.1.5 Let T be a positive random variable such that P(T > t) > 0 for
all t > 0 and

∀t, s > 0, P(T > t + s|T > t) = P(T > s).

Then T has an exponential distribution.


Proof Let g(t) := P(T > t) > 0. Since 1 − g is a distribution function, g is a
decreasing and right-continuous function. Since g(t + s) = g(s)g(t) for all s, t > 0,
we can get different representations for all n, m ∈ N,
n    n
1 1 1
g =g + ··· =g
m m m m
n n  n   n−m
1
g =g −1+1 = g − 1 g(1) = g g(1) (n ≥ m).
m m m m

Hence we have
  n
1 1 n
g = g(1) m , g = g(1) m , ∀n, m ∈ N.
m m

1 The geometric distribution has the property of abscence of memory if we request it to be satisfied
only for 0, 1, ...
2 Other books call this the memoryless property.
2.1 Introduction and Poisson Process 13

Let tn be a rational sequence such that tn ↓ t ∈ R+ . Since g is decreasing and right-


continuous,

g(tn ) ↑ g(t), g(1)tn ↑ g(1)t .


 
1
Therefore g(t) = g(1) . Let λ := log
t
which is positive by hypothesis. Then
g(1)
we get P(T > t) = exp(−λt), so T has an exponential distribution.

Lemma 2.1.6 Let T ∼ Exp(λ) and S ∼ Exp(μ) be independent. Then min(T , S) ∼


Exp(λ + μ).

Proof

P(min(T , S) > t) = P(T > t, S > t) = P(T > t)P(S > t) = e−(λ+μ)t .

Lemma 2.1.7 Let {τj ; 1 ≤ j ≤ n} be independent random variables such that τj ∼


Exp(λj ). Then

  λi
P τi = min(τ1 , . . . , τn ) = , 1 ≤ i ≤ n.
λ1 + · · · + λn

Proof Let T ∼ Exp(λ) and S ∼ Exp(μ) be independent. Denote the joint density
function of (S, T ) by fS,T . Then

P(S ≤ T ) = E[1{S≤T } ]
 ∞ ∞
= 1{s≤t} (s, t)fS,T (s, t)dsdt
 ∞
0 0
 ∞
= μe−μs λe−λt dtds
0 s
μ
= .
λ+μ

We know from Lemma 2.1.6 that min{τj ; j = i} ∼ Exp( λj ). Hence


j =i

λi
P(τi = min(τ1 , . . . , τn )) = .
λ1 + · · · + λn

Let {τi ; i ∈ N} be independent exponential random variables with parameter λ.


n
Define Tn := τi .
i=1

Exercise 2.1.8 Prove that σ (T1 , . . . , Tn ) = σ (τ1 , . . . , τn ).


Hint: Prove that there is a bijective application f : Rn → Rn such that f (τ1 , . . . ,
τn ) = (T1 , . . . , Tn ).
14 2 Simple Poisson Process and Its Corresponding SDEs

Lemma 2.1.9 (T1 , . . . , Tn ) has a probability density on Rn given by

fT1 ,...,Tn (t1 , . . . , tn ) = λn e−λtn 1{(t1 ,...,tn ) ; 0≤t1 <···<tn } (t1 , . . . , tn ).

Proof We define a posteriori the function fn+1 as

fn+1 (t1 , . . . , tn+1 ) : = fT1 ,...,Tn (t1 , . . . , tn )fτn+1 (η) (tn+1 = tn + η, η ≥ 0)


n −λtn
=λ e 1{(t1 ,...,tn ) ; 0≤t1 <···<tn } (t1 , . . . , tn )λe−λη 1[0,∞) (η)
= λn+1 e−λtn+1 1{(t1 ,...,tn+1 ) ; 0≤t1 <···<tn+1 } (t1 , . . . , tn+1 ) a.e.,

where fT1 ,··· ,Tn is a density of (T1 , · · · , Tn ). Then for a1 , . . . , an+1 ∈ R,

P(T1 ≤ a1 , . . . , Tn+1 ≤ an+1 )


= P(T1 ≤ a1 , . . . , Tn + τn+1 ≤ an+1 )

= 1{t1 ≤a1 ,...,tn ≤an ,tn +η≤an+1 } 1{η≥0} fT1 ,...,Tn (t1 , . . . , tn )fτn+1 (η)dt1 · · · dtn d η

= 1{t1 ≤a1 ,...,tn ≤an ,tn+1 ≤an+1 } fn+1 (t1 , . . . , tn+1 )dt1 · · · dtn+1 .

Therefore the proof follows by induction on n.

Definition 2.1.10 (Gamma distribution) A positive random variable X is said to


follow a gamma distribution with rate parameter θ and shape parameter r > 0 if it
has a probability density function of the form

θ r xr−1 e−θx
fX (x) = .
Γ (r)

We denote this fact by X ∼ Gamma(θ, r). Recall that Γ (r) := 0 xr−1 e−x dx. This
function satisfies that Γ (r + 1) = rΓ (r) for r > 0 and Γ (n) = (n − 1)! for n ∈ N.

Corollary 2.1.11 Tn ∼ Gamma(λ, n).


 t n n−1 −λtn
λ tn e
Proof By direct integration of Lemma 2.1.9 we have P(Tn ≤ t) = dtn .
0 (n − 1)!
Therefore one obtains the probability density function of Tn by differentiation of
P(Tn ≤ t) with respect to t. This gives

d λn t n−1 e−λt
fTn (t) = P(Tn ≤ t) = .
dt (n − 1)!

Definition 2.1.12 (Poisson distribution) A positive integer-valued random variable


N is said to follow a Poisson distribution with parameter λ > 0 if
2.1 Introduction and Poisson Process 15

λn
∀n ∈ Z+ , P(N = n) = e−λ ,
n!
and we write N ∼ Poisson(λ).

The following properties are an immediate consequence of the above definition:


Corollary 2.1.13 The mean and variance of N ∼ Poisson(λ) are λ. That is,

E[N ] = λ, Var[N ] = λ.

Furthermore, the characteristic function of the Poisson distribution is given by


exp[λ(eiθ − 1)].

Remark 2.1.14 In order to make the relationship with the general theory that will
follow in subsequent chapters, we remark here that the above characteristic function
can be written by using the Dirac point mass measure at one, denoted by δ1 (dx) (i.e.
the measure that characterizes the distribution of the random variable which takes
the value 1, a.s.), 3 as

E[eiθN ] = exp (eiθx − 1)λδ1 (dx) . (2.1)
R

Therefore the interpretation of the measure λδ1 (dx) is that at every time that the
process jumps, the size of the jump is one and that the average frequency of these
jumps is λ. We will see about this interpretation shortly. The measure λδ1 (dx) is
usually called the Lévy measure associated with the random variable N .

Exercise 2.1.15 Suppose that there exists another finite measure μ such that for all
θ ∈ R,  
(e − 1)λδ1 (dx) = (eiθx − 1)μ(dx).
iθx
R R

Prove that4 μ = λδ1 .

Proposition 2.1.16 Let {τi ; i ∈ N} be a sequence of independent exponential ran-


dom variables with parameter λ. Then, for any t > 0 the random variable

Nt = 1{Tn ≤t}
n≥1

3 Another way of saying the same thing is to say that δ1 is a probability measure so that δ1 (A) = 1
if 1 ∈ A and zero otherwise.
4 This measure is essentially unique, although we have not yet discussed its uniqueness. This will

follow because the exponential function is a generating family. Recall the discussion after (1.1)
and before Exercise 1.1.11. That is, exponential functions generate indicators and therefore the
corresponding measures have to be equal.
16 2 Simple Poisson Process and Its Corresponding SDEs

follows a Poisson distribution with parameter λt. That is,

(λt)n
∀n ∈ N, P(Nt = n) = e−λt .
n!
Therefore we see that the previous interpretation is reinforced in this probabilistic
representation. The random variable N1 is the count of how many times the increasing
sequence of random times Ti satisfy that Ti ≤ 1. This count is done in units of one
(every time the indicator function is equal to one) and the associated frequency is
related to τi whose mean is λ−1 , which means that on average we will have λ jumps
on the interval [0, 1].
Proof By Lemma 2.1.9, the density of (T1 , . . . , Tn ) is given by

λn e−λtn 1{(t1 ,...,tn ) ; 0<t1 <···<tn } .

Hence, as in the proof of Corollary 2.1.11 and Lemma 2.1.9, we have

P(Nt = n) = P(Tn ≤ t < Tn+1 )



(λt)n
= λn+1 e−λtn+1 1{(t1 ,...,tn ) ; 0<t1 <···<tn <t<tn+1 } dt1 ...dtn+1 = e−λt .
n!

One may wonder if there exists a sample space supporting the infinite sequence
of random variables {τi ; i ∈ N}. This is a classical mathematical result that requires
the infinite product of sample spaces. This may be done using the Carathéodory
extension theorem for measures.

2.1.2 Definition of the Poisson Process

Definition 2.1.17 (point process) Let T = {Tn ; n ∈ N} be a discrete time stochastic


process on (Ω, F , P). Then T is called a point process on R+ if

0 < T1 < · · · < Tn < · · · and Tn ↑ ∞.

Sometimes we use the notation5 T0 = 0.


Definition 2.1.18 (counting process) {Nt ; t ≥ 0} is called a counting process of the
point process T = {Tn ; n ∈ N} if

Nt = 1{Tn ≤t} .
n≥1

5 Insome advanced texts this definition is considered in greater generality, without the condition
that there are a finite number of counted events in any finite interval.
2.1 Introduction and Poisson Process 17

The following lemma is a immediate consequence of the above definitions.


Lemma 2.1.19 The counting process {Nt ; t ≥ 0} satisfies the following conditions:
1. {Nt ≥ n} = {Tn ≤ t} ,
2. {Nt = n} = {Tn ≤ t < Tn+1 } ,
3. {Ns < n ≤ Nt } = {s < Tn ≤ t} ,
4. There exists the left limit Nt− := lim Ns , and Nt is a right-continuous process (i.e.
s↑t
lim Ns = Nt ).
s↓t

Property (4) is usually called the càdlàg property.


Definition 2.1.20 (Poisson process) Let {τi ; i ≥ 1} be a sequence of independent
n
exponential random variables with parameter λ and Tn = τi . The process {Nt , t ≥
i=1
0} defined by

Nt = 1{Tn ≤t}
n≥1

is called a Poisson process with parameter λ.


In some texts λ is called the intensity of the Poisson parameter as it measures the
rate of jumps. Many properties of Poisson processes have already been given in the
previous section in the form of properties of Poisson random variables.
Proposition 2.1.21 Let {Nt } be a Poisson process with parameter λ. Given Nt = n,
n ≥ 1, then the jump times of the Poisson process are given by the following density:

  n!
P (T1 , T2 , . . . , Tn ) ∈ A|Nt = n = dt1 dt2 · · · dtn n , A ∈ B(Rn ).
A∩{0≤t1 <t2 <···<tn <t} t

That is, given Nt = n the jump times (T1 , · · · , Tn ) are distributed like the order
statistics of n uniform random variables in the interval6 [0, t].
Proof From Lemma 2.1.9, we have that

P((T1 , T2 , . . . , Tn ) ∈ A|Nt = n)
P((T1 , T2 , . . . , Tn ) ∈ A, Nt = n)
=
P(Nt = n)
n! λt
=P((T1 , T2 , . . . , Tn ) ∈ A, Tn ≤ t < Tn+1 ) e
(λt)n

n! λt
= λn+1 e−λtn+1 1{0≤t1 <···<tn+1 } (t1 , . . . , tn+1 )dt1 · · · dtn+1 e
(A∩R ×[0,t])×(t,∞)
n−1 (λt) n

6 Given n independent random variables U1 , · · · , Un each with the uniform distribution in [0, t],
the order statistic distribution is the n-dimensional distribution of the n random variables once they
have been ordered.
18 2 Simple Poisson Process and Its Corresponding SDEs
  ∞
n!
= λe−λtn+1 1{0≤t1 <···<tn } (t1 , . . . , tn )dt1 · · · dtn+1 n eλt
A∩Rn−1 ×[0,t] t t
  ∞
n!
= λe−λtn+1 dtn+1 dt1 · · · dtn n eλt
A∩{0≤t1 <t2 <···<tn <t} t t

n!
= e−λt dt1 · · · dtn n eλt
A∩{0≤t1 <t2 <···<tn <t} t

n!
= dt1 dt2 · · · dtn n .
A∩{0≤t1 <t2 <···<tn <t} t

Lemma 2.1.22 If {Nt ; t ≥ 0} is a Poisson process with parameter λ, then, for t ≥ 0:


(i) TNt +1 − t is independent of σ (τNt +k : k ≥ 2).
(ii) TNt +1 − t is an exponentially distributed r.v. with parameter λ.
(iii) TNt +1 − t is independent of σ (Nt ).

Proof First, we show (ii) and (iii). For s1 ∈ R and k ∈ N, we have

P(TNt +1 − t ≤ s1 , Nt = k) = P(Tk+1 − t ≤ s1 , Nt = k)
= E(1{Tk+1 ≤s1 +t,Tk ≤t<Tk+1 } ).
From Lemma 1.2.3, we obtain
E[1{Tk+1 ≤s1 +t,Tk ≤t<Tk+1 } ] =E[1{Tk ≤t} E[1{t<Tk +τk+1 ≤s1 +t} |Tk ]]
=E[1{Tk ≤t} (e−λ(t−Tk ) − e−λ(s1 +t−Tk ) )] = (1 − e−λs1 )P(Nt = k).

Next, we compute the following distribution function in order to prove (i). It is easy
to check that, for {si }i≥2 ⊂ R,
⎛ ⎞ ⎛ ⎞
 
P ⎝ {τNt +k ≤ sk }⎠ = P ⎝ {τk ≤ sk }⎠ .
k≥2 k≥2

Therefore, we have
⎛ ⎞

P ⎝{TNt +1 − t ≤ s1 } ∩ {τNt +k ≤ sk }⎠
k≥2
⎛ ⎞
∞ 
= P ⎝{TNt +1 − t ≤ s1 } ∩ {τNt +k ≤ sk } ∩ {Nt = l}⎠
l=0 k≥2
⎛ ⎞
∞   
= P {TNt +1 − t ≤ s1 } ∩ {Nt = l} P ⎝ {τl+k ≤ sk }⎠
l=0 k≥2
⎛ ⎞

= P(TNt +1 − t ≤ s1 )P ⎝ {τNt +k ≤ sk }⎠ .
k≥2
2.1 Introduction and Poisson Process 19

The proof is complete.


Proposition 2.1.23 Let {Nt ; t ≥ 0} be a Poisson process. Then for any s < t, Nt −
Ns and Ns , are independent.
Proof Let a, b ∈ N,

b b a+k
P(Nt − Ns ≤ a, Ns ≤ b) = P(Nt ≤ a + k, Ns = k) = P(Nt = l, Ns = k)
k=0 k=0 l=k
b a+k
= P(Tl ≤ t < Tl+1 , Tk ≤ s < Tk+1 )
k=0 l=k
b a
= P(Tk+j ≤ t < Tk+j+1 , Tk ≤ s < Tk+1 ). (2.2)
k=0 j=0

First for j = 0, we have


 s
λk uk−1 (λs)k −λt
P(Tk ≤ s < t < Tk+1 ) = P(t < u + τk+1 )e−λu du = e .
0 (k − 1)! k!

For general j ≥ 1, we have, applying conditioning twice (first Tk = u and then τk+1 =
s1 ),

P(Tk+j ≤ t < Tk+j+1 , Tk ≤ s < Tk+1 )


 s  t−u
λk uk−1
= P(u + s1 + Sj ≤ t < u + s1 + Sj+1 )λe−λs1 e−λu ds1 du.
0 s−u (k − 1)!

j
Here in order to simplify the notation we have set Sj = l=2 τk+l . Now using the
previous step, we have that

P(Tk+j ≤ t < Tk+j+1 , Tk ≤ s < Tk+1 )


 s  t−u j−1
λ (t − u − s1 )j−1 −λt λk uk−1
= λe ds1 du
0 s−u (j − 1)! (k − 1)!
(λ(t − s))j (λs)k −λt
= e .
j! k!

Thus, we have that

b a
(λs)k −λt (λs)k (λ(t − s))j −λt
(2.2) = { e + e }
k! j=1
k! j!
k=0
b a
(λs)k (λ(t − s))j −λt
= e
k! j!
k=0 j=0
20 2 Simple Poisson Process and Its Corresponding SDEs

b a
(λs)k −λs (λ(t − s))j −λ(t−s)
= { e e }
k! j=0
j!
k=0

= P(Nt − Ns ≤ a)P(Ns ≤ b).

In fact, we have the following generalization.


Proposition 2.1.24 The Poisson process {Nt ; t ≥ 0} has independent increments.
That is, for any partition 0 < t1 < · · · < tn , the random variables Nt1 , Nt2 − Nt1 , . . . ,
Ntn − Ntn−1 are independent.

Lemma 2.1.25 Let {Nt ; t ≥ 0} be a counting process of the point process {Tn ; n ∈
N} with stationary independent increments. That is:  
(a) for all n ≥ 2, 0 ≤ t0 < t1 < · · · < tn , the increments Ntj − Ntj−1 ; 1 ≤ j ≤ n
are mutually independent,
(b) for all 0 ≤ s < t, the law of Nt − Ns depends upon the pair (s, t) only through
the difference t − s.
We define that τ1 := T1 , τi := Ti − Ti−1 (i ≥ 2). If, for any t ≥ 0, Nt follows a
Poisson distribution with parameter λt, then {τi ; i ∈ N} is a sequence of independent
exponential random variables with parameter λ.

Proof First note that for i < j and s < u

j−1 j−1−k
−λu sk (u − s)l λk+l
P(Ti < s, Tj > u) = P(Ns ≥ i, Nu ≤ j − 1) = e .
k!l!
k=i l=0

From here one obtains all the required properties. In fact, one proves first by taking
j = i + 1, differentiation with respect to s and integration for s ∈ [0, u] that Ti ∼
Gamma(λ, i) and similarly that τi+1 = Ti+1 − Ti is independent of Ti and that it is
distributed exponentially with parameter λ.

Lemma 2.1.26 Let X and Y be Z+ -valued random variables with E[X m ], E[Y m ] <
∞ for any m ∈ N. Then X and Y are identical in law if and only if for any u in a
neighborhood of 0,

E[uX ] = E[uY ].

The function G(u) := E[uX ] = ui P(X = i) is usually called the probability gen-
i≥0
erating function of X . In other texts, is called the moment generating function. In the
particular case that u = e−λ and λ ≥ 0 then it is called the Laplace transform, which
is, loosely speaking, a transformation of the characteristic function.
Proof Consider G(u), u ∈ [0, 1]. Since E[X m ], E[Y m ] < ∞, G(u) is termwise dif-
ferentiable. Then we have
2.1 Introduction and Poisson Process 21

G  (u) = iui−1 P(X = i) = iui−1 P(X = i).


i≥0 i≥1

Hence G  (0) = lim G  (u) = 1 · P(X = 1). In the same fashion, we have
u↓0

G (n) (0) = n!P(X = n).

Suppose that for some ε > 0 and for all u in [0, ε ∧ 1], E[uX ] = E[uY ]. Then we
have

G (n) (0)
P(X = n) = = P(Y = n).
n!
Lemma 2.1.27 Let X be a Poisson random variable with parameter λ. Then, for
any n ∈ N, E[X n ] < ∞.

Proof For all n ∈ N, we have that

λk −λ
E[X n ] = kn e .
k!
k≥0

Also,
 n
k n λk! e−λ
k
λ k
= .
λ k−1
(k − 1)n (k−1)! e−λ k k −1

λ
 k n

Since limk→∞ k k−1
= 0, from the ratio test, we get E[X n ] < ∞.

In Lemma 2.1.25, we assumed that the marginal distribution of N follows a Poisson


distribution. In the next result we generalize this result.

Proposition 2.1.28 Let {Nt ; t ≥ 0} be a counting process of the point process T =


{Tn ; n ∈ N} with stationary independent increments. That is: 
(a) for all n ≥ 2, 0 ≤ t0 < t1 < · · · < tn , the increments Ntj − Ntj−1 ; 1 ≤ j ≤ n
are mutually independent,
(b) for all 0 ≤ s < t, the law of Nt − Ns depends upon the pair (s, t) only through
the difference t − s.
In such a case {Nt ; t ≥ 0} is a Poisson process.

Proof For any t ≥ 0, define the moment generating function ft : [0, 1] → [0, 1] as
follows:

ft (u) := E[uNt ] = uk P(Nt = k) (t > 0),


k≥0

f0 (u) := 1.
22 2 Simple Poisson Process and Its Corresponding SDEs

We remark that the above functions are well defined and that ft (0) = P(Nt = 0).
From Lemmas 2.1.26 and 2.1.27, we will prove in Step 1 that there exists λ ≥ 0 such
that ft (u) = e−λt(1−u) and in Step 2 that the process T = {Tn ; n ∈ N} satisfies that
each Tn follows a Gamma distribution with scale λ and shape n .
Step 1.
From assumptions (a) and (b), we have

ft+s (u) = E[uNt+s ]


= E[uNs uNt+s −Ns ]
= E[uNs ]E[uNt+s −Ns ]
= fs (u)ft (u).

Therefore for any n, m ∈ N,


 n
f mn (u) = f m1 +···+ m1 (u) = f m1 (u) ,
 n−m
f mn (u) = f n−m
m +1 (u) = f n−m (u)f1 (u) =
m
f 1 (u)
m
f1 (u), n ≥ m.

Hence we have
1 n
f m1 (u) = {f1 (u)} m , f mn (u) = {f1 (u)} m ∀n, m ∈ N.

Let {tn ; n ∈ N} be a sequence of rational numbers such that tn ↓ t ∈ R+ . Then as


f1 (u) ≥ 0, we have

{f1 (u)}tn ↑ {f1 (u)}t .

Since Nt is a right-continuous function,

Ntn ↓ Nt , a.s., uNtn ↑ uNt , a.s.

From the monotone convergence theorem, we have

ftn (u) = E[uNtn ] ↑ E[uNt ] = ft (u).

Therefore ft (u) = {f1 (u)}t .


Let {sn ; n ∈ N} be a real sequence such that sn ↓ 0. Then

{f1 (u)}sn = fsn (u)


= uk P(Nsn = k)
k≥0

≥ P(Nsn = 0)
2.1 Introduction and Poisson Process 23

= P(T1 > sn ).

Since P(T1 > sn ) ↑ 1, as n ↑ ∞ then for some N ∈ N, we have

1
{f1 (u)}sN ≥ P(T1 > sN ) > .
2
1
Therefore f1 (u) = 0. Let λ(u) := log . Then we have
f1 (u)

E[uNt ] = ft (u) = {f1 (u)}t = e−λ(u)t .

In particular, λ(0) = log f1 (0)−1 = log P(N1 = 0)−1 ≥ 0. Hence it just remains to
show that for any u ∈ [0, 1],

λ(u) = λ(0)(1 − u).

Clearly,

1 − e−λ(u)t 1 − E[uNt ]
λ(u) = lim = lim
t↓0 t t↓0 t
⎧ ⎫
1 ⎨ ⎬
= lim 1− uk P(Nt = k)
t↓0 t ⎩ ⎭
k≥0
1
= lim (1 − uk )P(Nt = k). (2.3)
t↓0 t
k≥1

Since 0 ≤ u ≤ 1,

1 P(Nt ≥ 2)
0≤ (1 − uk )P(Nt = k) ≤ .
t t
k≥2

Now, we will prove that

P(Nt ≥ 2)
→ 0, as t ↓ 0.
t
We divide this into two cases: First, if λ(0) = 0 then ft (0) = 1 for any t. Since
1 = E[0Nt ] = P(Nt = 0), P(Nt ≥ 2) = 0. Next, if λ(0) > 0 then e−λ(0)t < 1, and
we have
24 2 Simple Poisson Process and Its Corresponding SDEs
 
{Nnt = 0, Nnt+t ≥ 2} = {nt < T1 , T2 ≤ nt + t}
n≥0 n≥0

= {nt < T1 , T2 ≤ nt + t < T1 + t}
n≥0

⊆ {T2 < T1 + t} .

We deduce from the above and assumptions (a) and (b) that

P( {Nnt = 0, Nnt+t ≥ 2}) ≤ P(T2 < T1 + t)
n≥0

→ P(T2 ≤ T1 ) = 0 as t ↓ 0.

Hence we have
P(Nt ≥ 2) P(Nt ≥ 2)
0≤ ≤ ≤ P(T2 < T1 + t) → 0.
λ(0)t 1 − e−λ(0)t

So from (2.3), we conclude that for all u ∈ [0, 1],

P(Nt = 1)
λ(u) = lim (1 − u) = C(1 − u).
t↓0 t

Taking u = 0, we obtain that λ(u) = λ(0)(1 − u).


Step 2.
Let τ1 := T1 , τi := Ti − Ti−1 (i ≥ 2). We prove that {τi ; i ∈ N} is a sequence of
independent exponential random variables with parameter λ(0). From Lemma 2.1.25,
it is clear.
Exercise 2.1.29 Let N be a Poisson process. Prove the following:
• lims↑t Ns = Nt except for t = Ti , i ∈ N.
• For any fixed t > 0, we have P(Nt − lims↑t Ns = 1) = 0.
• Let T be a random time which is independent of N , then P(NT − lims↑T Ns =
1) = 0.
Corollary 2.1.30 The moment generating function of a Poisson process with param-
eter λ is
E[uNt ] = e−λ(1−u)t .

Theorem 2.1.31 (Sums of independent Poisson processes; super-position property)


If {Nt(1) ; t ≥ 0}, {Nt(2) ; t ≥ 0} are two independent7 Poisson process with intensities
λ1 , λ2 , then {Nt = Nt(1) + Nt(2) ; t ≥ 0} is a Poisson process with intensity λ1 + λ2 .

7 Recallthat independence of random process means that the σ -fields generated by these process
are independent.
2.1 Introduction and Poisson Process 25

Proof We prove that Nt is a counting process, Nt has stationary independent incre-


ments and Nt follows a Poisson distribution with parameter λ1 + λ2 . Therefore the
result will follow from Proposition 2.1.28.
Step 1. Nt is a counting process. Since Nt(i) is Poisson process, there exists a point
process {Tn(i) }n∈N such that

Nt(i) = 1{Tn(i) ≤t} .


n≥1

Hence we have Nt = n≥1 (1{Tn(1) ≤t} + 1{Tn(2) ≤t} ). We define a point process
{Tn ; n ∈ N} which is relabeled {Tn(1) ; n ∈ N}, {Tn(2) ; n ∈ N} in an increas-
ing order in that

T1 := inf{t > 0; ΔNt = 0},


Ti := inf{t > Ti−1 ; ΔNt = 0},

where ΔNt := Nt − Nt− . Then we have Nt = n≥1 1{Tn ≤t} . Hence Nt is


counting process.
Step 2. Nt has the stationary increment property
(1) (2)
Nt+h − Nt = (Nt+h + Nt+h ) − (Nt(1) + Nt(2) )
(1)
= (Nt+h − Nt(1) ) + (Nt+h
(2)
− Nt(2) )
= Nh(1) + Nh(2) = Nh .
d

Step 3. Nt has the independent increments property. We only check the following
equation:
n 
n
E[exp(i αj (Ntj − Ntj−1 ))] = E[exp(iαj (Ntj − Ntj−1 ))].
j=1 j=1

We decompose Ntj − Ntj−1 to Nt(1)


j
− Nt(1)
j−1
+ Nt(2)
j
− Nt(2)
j−1
as in Step 2. Since
(1) (2)
N and N are independent, we get
n n
(LHS) = E[exp(i αj (Nt(1)
j
− Nt(1)
j−1
)]E[i αj (Nt(2)
j
− Nt(2)
j−1
))],
j=1 j=1


n
(RHS) = E[exp(iαj (Nt(1)
j
− Nt(1)
j−1
))]E[exp(iαj (Nt(2)
j
− Nt(2)
j−1
))].
j=1

Therefore (LHS) = (RHS).


26 2 Simple Poisson Process and Its Corresponding SDEs

Step 4. Nt follows the Poisson distribution with parameter λ1 + λ2 . It is clear by


checking that E[eiθNt ] = exp((λ1 + λ2 )t(eiθ − 1)).

Remark 2.1.32 Step 4 in the above proof should reinforce your understanding of the
representation (2.1). We note that as in Remark 2.1.14 we can rewrite the above char-
acteristic function as exp( (eiux − 1)ν(dx)), where ν(dx) = λ1 δ1 (dx) + λ2 δ1 (dx).
Therefore we understand that this may lead to a general form of some characteristic
functions where the distribution is now characterized by a measure ν.

Exercise 2.1.33 Use characteristic functions (see e.g. Theorem 1.1.6) in order to
prove the following two results for a sequence of independent Poisson random vari-
ables N i , i ∈ N with parameter λ:
n
• N i is a Poisson r.v. with parameter λn. In particular, prove that ni=1 N i →
i=1
∞, a.s. The following renormalization result gives the asymptotic behavior of
this sum of random variables:
• Prove that limn→∞ n1 ni=1 N i = λ, a.s.
• √1n ni=1 (N i − λ) ⇒ Z, where Z ∼ N (0, 1).
Notice that this last result is interesting. A discrete distribution like the Poisson
random variable after a limit renormalization becomes a continuous distribution!

Exercise 2.1.34 In this exercise, we would like to briefly discuss some basic proper-
ties on the modulus of continuity of the Poisson process {Nt ; t ≥ 0} with parameter
λ. First, we recall that the paths of Poisson processes are càdlàg. Still, prove the
following properties:
• limt↓0 E[Nt t ] = λ.
• limt↓0 Nt t = 0, a.s.
• limt↓0 P( Nt t > 0) = 0.
These results can also be stated for t ↑ ∞. Write and prove those results and compare
with Exercise 2.1.33. For the moment, it looks that not much of interest is going on
as these paths always increase by one unit. Starting in the next chapter, we will see
much more interesting behavior.

Problem 2.1.35 This exercise is designed for people that may have some experience
with Markov chains. Prove that a Poisson process is a time homogeneous Markov
chain with state space N ∪ {0}. In particular prove that for tn < ... < t1 and ai ∈ N,
i = 1, ..., n, an ≤ an−1 ≤ ... ≤ a1 one has

P(Nt1 = a1 /Ntj = aj , j = 2, ..., n) = P(Nt1 = a1 /Nt2 = a2 ).

Compute its transition probabilities and prove its transience.

Exercise 2.1.36 One of the properties which separates the Poisson process from the
Wiener process is its lack of scaling property. In fact, prove that although
2.1 Introduction and Poisson Process 27

E[t −1 Nt ] = λ,

in general, E[(t −1 Nt )p ] depends on t. This can also be seen from the moment generat-
ing function; that is, the fact that the generating function of t −1 Nt is not independent
of t.
Exercise 2.1.37 The following properties are related with the long-time behavior of
the Poisson process:
 t
1. Compute lim t −2 E[Ns ]ds.
t↑∞ 0
 t TNt
2. Prove that Ns ds = i(Ti+1 − Ti ) + Nt (t − TNt ).
0 i=0
3. Prove that lim Nt = ∞, a.s. and therefore lim TNt = ∞, a.s.
t↑∞ t↑∞
n
4. Prove that lim i(Ti+1 − Ti ) = ∞.
n↑∞
i=0  t
5. Try to guess the value of the limit lim t −2 Ns ds.8
t↑∞ 0

Exercise 2.1.38 This exercise will help you get acquainted with σ -algebras which
will be needed later. Define Ft := σ (Ns ; s ≤ t). Recall that we always consider that
this means that Ft is the smallest σ -algebra for which Ns is measurable for all s ≤ t
and which is completed with all the subsets of sets of probability zero.
1. Prove that Ft = σ ({Ti ≤ s}; s ≤ t, i ∈ N) = σ (Ti ∧ t; i ∈ N). In particular, Ti is
a stopping time for any i ∈ N.
2. Let g : Ω × R × [0, T ] → R be a function that is measurable with respect to the
σ -field FT ⊗ B ⊗ B[0, T ]. Prove that there exists a sequence of functions of
the type
n
gn (ω, z, t) = Xi (ω)ai (z)bi (t)
i=1

such that gn → g, a.s. Here Xi : Ω → R is a FT random variable and ai : R → R


together with bi : [0, T ] → R are measurable functions.
3. Now suppose that for each t ∈ [0, T ], g(ω, z, s)1(s ≤ t) is measurable with
respect to Ft ⊗ B ⊗ B[0, t]. Prove that g(·, ·, t) is measurable with respect to
Ft ⊗ B.
Exercise 2.1.39 This exercise is about the extension of the stationary increment
property of N to a weaker property and is strongly related to Exercise 2.1.38.
1. Let s, t > 0; prove that Nt+s − Ns is independent of Fs . Hint: Prove this by using
a simple set in Fs then extend this result by taking limits.

8 Recall results related with the law of large numbers.


28 2 Simple Poisson Process and Its Corresponding SDEs

2. We say that τ is a stopping time if for any t > 0, {τ ≤ t} ∈ Ft . Prove that given
any stopping time τ then Nτ +t − Nτ is independent of Fτ = {A ∈ F∞ ; A ∩ {τ ≤
t} ∈ Ft , t > 0}. Furthermore prove that the laws of Nτ +t − Nτ and Nt are the
same. That is, P(Nτ +t − Nτ = k) = P(Nt = k) for any k ∈ N. This property is
called the strong Markov property. When τ is non-random it is called the Markov
property.
Hint: Prove this property by approximations. That is, assume that τ takes a finite
number of values. Then proceed by taking limits.
Exercise 2.1.40 This exercise is about the simplest form of Girsanov’s theorem
(change of measure) for Poisson processes. It will appear later in a much more
complex form.
1. Let N be a Poisson process with parameter λ > 0; prove the following equality
for any f bounded and measurable function:

λ
E[f (Nt )] = E[f (Nt ) exp((λ − λ)t − Nt log( ))].
λ

Here N  is a Poisson process of parameter λ > 0 and we assume without loss of


generality that the probability space supports these two processes.
2. Prove that one may define a new probability measure by considering

λ
Qt (A) = E[1A exp((λ − λ)t − Nt log( ))].
λ

3. Prove that if A ∈ Fs for s < t then Qt (A) = Qs (A).


Problem 2.1.41 This exercise is about the large deviation principle for the Poisson
process.
1. Prove that P(Nt > x) ≤ f (x)−1 E[f (Nt )] for any increasing function f .
2. Using f (x) = eax prove that P(Nt > x) ≤ exp(−ax) exp((ea − 1)λt) .
3. Prove that
log P(Nt > x)
lim sup = −∞.
x→+∞ x

4. State and prove an improvement of the above result9 .


Problem 2.1.42 (An alternative method of defining the Poisson law. The infinitesi-
mal definition10 ) Suppose that a stochastic process11 Nt , t ≥ 0, satisfies the following
relations as h ↓ 0 for k = 0, . . . :

9 This is an exercise to test your understanding.


10 Recall that o(1) stands for any function that converges to zero as the related parameter (which
should be clear from the statement) approaches a certain limit. In this case, the parameter is h.
11 A stochastic process is a family of random variables {N }
t t∈[0,∞) such that N : Ω × [0, ∞) → R
is jointly measurable. I suppose that you interpreted this in a similar way in Definition 2.1.17.
2.1 Introduction and Poisson Process 29

1. P(Nt+h = k + 1|Nt = k) = λh + o(h).


2. P(Nt+h > k + 1|Nt = k) = o(h). 12 .
3. P(Nt+h = k|Nt = k) = 1 − λh + o(h)
4. t → Nt (ω) (a.s.) is increasing and N has independent increments.
Prove the following statements:
1. P(Nt = 0) − P(Nt−h = 0) = −λhP(Nt−h = 0) + o(h).
2. ∂t P(Nt = 0) = −λP(Nt = 0) and therefore P(Nt = 0) = e−λt .
3. For k ≥ 1, P(Nt = k) − P(Nt−h = k) = λh(P(Nt−h = k − 1) − P(Nt−h = k))
+ o(h).
4. Prove that the probabilities for Nt should satisfy the differential equation ∂t P(Nt =
k) = λ(P(Nt = k − 1) − P(Nt = k)).
5. Provide boundary conditions for the above system of ordinary differential equa-
tions and prove that the unique solution is given by P(Nt = k) = e−λt (λt)
k

k!
.

Note that this exercise does not tell you how to construct the process N , which is what
we have done in this section. Still this is not impossible to do. In a general setting, one
uses the independence increment property together with the laws of the increments to
obtain the joint law of any vector (Nt1 , . . . , Ntn ) for any sequence 0 < t1 < · · · < tn
and then applies the so-called Kolmogorov extension theorem.
Problem 2.1.43 The following exercise is about the behavior of the simple Poisson
process when λ → ∞. Prove that

NT
lim = 1, (a.s).
λ→∞ λ

This is also known as the renewal theorem when one considers large time. That is,

NT
lim = λ, (a.s).
T →∞ T

Hint: Use characteristic functions.

Exercise 2.1.44 This exercise will help us to understand the definitions of stochastic
integrals to appear in the chapters that follow.
1. Prove that for ω ∈ Ω, the function t → Nt (ω) is of bounded variation on compact
intervals.
2. Given the previous result prove that for any function g ∈ C[0, T ], one can define
T
the integral 0 g(s)dNs .
3. In fact, give an alternative expression for the above integral using the jump times
{Ti }i∈N .

o(h)
12 Recall that o(h) is any term such that limh→0 h = 0.
Another random document with
no related content on Scribd:
— Katerina Ivanovna ymmärtää kaiken, — lausui äkkiä Aljoša
juhlallisesti, — ymmärtää kaiken tämän murheen koko syvyyden ja
sopii. Hän on erittäin älykäs ja hän näkee itse, että ei voi olla
onnettomampi kuin sinä.

— Ei hän tyydy kaikkeen, — hymähti Mitja. — Tässä on, veliseni,


semmoista, mitä ei yksikään nainen voi antaa anteeksi. Mutta
tiedätkö, mitä olisi paras tehdä?

— Mitä?

— Antaa hänelle takaisin kolmetuhatta.

— Mutta mistä ne otetaan? Kuule, minulla on kaksituhatta, Ivan


antaa lisäksi tuhat, siinä on kolmetuhatta, ota ja maksa pois.

— Mutta milloin ne saadaan, nuo sinun kolmetuhattasi? Sinä olet


vielä kaiken lisäksi alaikäinenkin, mutta on tarpeen välttämättömästi,
välttämättömästi, että sinä jo tänään käyt hänen luonaan, rahojen
kanssa tai ilman rahoja, sillä pitemmälle en voi asiaa venyttää, asia
on nyt sillä asteella. Huomenna on jo myöhäistä. Minä lähetän sinut
isän luo.

— Isän luo?

— Niin, isän luo, ennenkuin menet hänen luokseen. Pyydä isältä


kolmeatuhatta.

— Mutta eihän hän anna, Mitja.

— Kuinka hän antaisi, minä tiedän, että hän ei anna. Tiedätkö


sinä,
Aleksei, mitä on epätoivo?
— Tiedän.

— Kuule: juridisesti hän ei ole minulle mitään velkaa. Olen ottanut


häneltä kaikki, aivan kaikki, tiedän sen. Mutta moraalisesti hän on
minulle velkaa, eikö niin? Hänhän aloitti äidin
kahdeksallakolmattatuhannella ja ansaitsi satatuhatta. Antakoon hän
minulle vain kolmetuhatta kahdeksastakolmattatuhannesta, niin hän
pelastaa sieluni helvetistä ja se korvaa monet hänen syntinsä! Minä
puolestani, vakuutan sen sinulle juhlallisesti, lopetan kaiken noihin
kolmeentuhanteen, eikä hän sen koommin kuule minusta mitään.
Annan hänelle viimeisen kerran tilaisuuden olla isänä. Sano hänelle,
että Jumala itse on lähettänyt hänelle tämän tilaisuuden.

— Mitja, ei hän anna missään tapauksessa.

— Tiedän, että ei anna, tiedän täydelleen. Ja varsinkaan nyt.


Tiedänpä lisäksi vielä seuraavaakin: nyt näinä päivinä, kenties vasta
eilen, hän on saanut tietää vakavasti (alleviivaa sana vakavasti), että
Grušenjka todellakaan ehkä ei laske leikkiä, vaan tahtoo laittautua
naimisiin kanssani. Hän tuntee tuon luonteen, tuntee tuon kissan.
No, tokkohan hän kaiken lisäksi vielä antaa minulle rahaakin
edistääkseen tämmöistä asiaa, kun hän itse on aivan hullaantunut
Grušenjkaan? Mutta ei vielä siinä kyllin, voin mainita sinulle
enemmänkin: tiedän, että hänellä jo noin viisi päivää on ollut
esilleotettuna kolmetuhatta ruplaa, vaihdettuina sadan ruplan
seteleihin ja niputettuina isoon kääröön, viidellä sinetillä suljettuun,
joka on päältä sidottu ristiin punaisella nauhalla. Näetkö, miten
yksityiskohtaiset tiedot minulla on! Kääröön on kirjoitettu: »Enkelilleni
Grušenjkalle, jos hän tahtoo tulla», itse hän on sen kaikessa
hiljaisuudessa ja salaisuudessa raapustanut, eikä kukaan tiedä, että
hänen hallussaan on nämä rahat, paitsi lakeija Smerdjakov, jonka
rehellisyyteen hän luottaa niinkuin itseensä. Jo kolme tai neljä päivää
hän on nyt odottanut Grušenjkaa, toivoo hänen tulevan hakemaan
kääröä, niin on hän hänelle ilmoittanut, ja Grušenjka puolestaan on
lähettänyt sanan, että »ehkäpä tulenkin». Jos hän siis tulee ukon luo,
niin voinko silloin mennä hänen kanssaan naimisiin? Ymmärrätkö
nyt, miksi minä siis istun täällä salaa ja mitä minä nimenomaan
vahdin?

— Grušenjkaa?

— Häntä. Näitten homssujen, tämän talon emäntien asunnosta on


vuokrannut itselleen kopukan Foma. Foma on meidän
seuduiltamme, meidän entisiä sotamiehiämme. Hän on heidän
palveluksessaan, vartioi yöllä ja käy päivällä teiriä ampumassa, se
on hänen elinkeinonsa. Tänne hänen luokseen olen nyt asettunut.
Sekä hän että emännät tuntevat salaisuuden, nimittäin että minä
olen täällä vahdissa.

— Smerdjakov yksinkö tietää?

— Hän yksin. Hän myös minulle ilmoittaa, jos Grušenjka tulee


ukon luo.

— Hänkö sinulle kertoi kääröstä?

— Hän. Se on hyvin suuri salaisuus. Ei edes Ivan tiedä rahoista


eikä mistään. Mutta ukko lähettää Ivanin ajelemaan Tšermašnjaan
pariksi kolmeksi päiväksi: on ilmaantunut lehdon ostaja, tahtoisi
hakkauttaa sen maksamalla kahdeksantuhatta, niinpä ukko pyytelee
Ivania: »Autahan minua, käy itse katsomassa, kysymyksessä on pari
kolme päivää.» Hän tahtoo, että Grušenjka tulisi Ivanin
poissaollessa.
—- Hän siis odottaa tänäänkin Grušenjkaa.

— Ei, tänään Grušenjka ei tule, merkit viittaavat siihen suuntaan.


Ihan varmaan ei tule! — huudahti Mitja äkkiä. — Niin luulee
Smerdjakovkin. Isä juopottelee nyt, istuu pöydässä veli Ivanin
kanssa. Käy, Aleksei, pyytämässä häneltä nuo kolmetuhatta…

— Rakas Mitja, mikä sinun on! — huudahti Aljoša hypäten


paikaltaan ja katsellen tarkasti raivostunutta Dmitri Fjodorovitšia.
Hetken ajan hän luuli tämän menettäneen järkensä.

— Mitä sinä? En minä ole menettänyt järkeäni, — lausui Dmitri


Fjodorovitš katsellen häntä kiinteästi ja omituisen juhlallisesti. —
Älä pelkää, minä lähetän sinut isän luo ja tiedän mitä puhun: minä
uskon ihmeeseen.

— Ihmeeseen?

— Jumalan Kaitselmuksen ihmeeseen. Jumala tietää sydämeni.


Hän näkee kaiken epätoivoni. Hän näkee koko tämän kuvan. Salliiko
hän kauhean asian tapahtua? Aljoša, minä uskon ihmeeseen, mene!

— Minä menen. Sano, odotatko sinä täällä?

— Odotan. Minä ymmärrän, ettei se käy pian, ettei voi tulla noin
vain ja mennä oikopäätä asiaan. Hän on nyt humalassa. Minä
odotan kolme tuntia taikka neljä taikka viisi taikka kuusi taikka
seitsemän, mutta tiedäkin, että tänään, vaikkapa sydänyöllä, menet
Katerina Ivanovnan luo rahojen kanssa tai ilman rahoja ja sanot:
käski sanoa teille terveisiä. Tahdon nimenomaan, että sanot tämän
lauselman: »Käski näet sanoa terveisiä.»
— Mitja! Entä jos yht'äkkiä Grušenjka tulee tänään… tai jos ei
tänään, niin huomenna tai ylihuomenna?

— Grušenjka? Pidän silmällä, hyökkään esille ja estän…

— Entä jos…

— Jos niin, niin tapan. Näin en voi elää.

— Kenet sinä tapat?

— Ukon. Grušenjkaa en tapa.

— Veli, mitä sinä puhut!

— Enhän tiedä, en tiedä… Kenties en tapa, kenties tapan.


Pelkään, että hänen kasvonsa käyvät äkkiä minulle vastenmielisiksi
sillä hetkellä. Minä vihaan hänen aataminpalaansa, hänen
nenäänsä, hänen silmiään, hänen häpeämätöntä pilkkaansa.
Tunnen persoonallista inhoa. Juuri sitä pelkään. Saattaa käydä niin,
että en voi hillitä itseäni…

— Minä menen, Mitja. Minä uskon Jumalan järjestävän niinkuin


hän parhaaksi näkee, ettei tapahtuisi kauheata.

— Ja minä istun ja odotan ihmettä. Mutta jos ei tapahdu, niin…

Aljoša lähti mietteissään isän luo.

6.

Smerdjakov
Hän tapasi isänsä todellakin vielä pöydässä. Pöytä oli, kuten aina,
katettu saliin, vaikka talossa oli myös varsinainen ruokasali. Tämä
sali oli talon suurin huone ja vanhanaikaisen komeasti kalustettu.
Kalusto oli hyvin vanha, valkoinen, ja sen vanha, punainen päällys
oli puolisilkkinen. Seinille ikkunoitten väliin oli asetettu kuvastimia,
joitten koreat kehykset oli koristettu vanhanaikaisilla leikkauksilla.
Nekin olivat valkeat ja kullalla koristetut. Seiniä peittivät valkoiset,
monin paikoin jo halkeilleet seinäpaperit, ja niitä koristi kaksi isoa
muotokuvaa. Toinen esitti jotakuta ruhtinasta, joka
kolmisenkymmentä vuotta sitten oli ollut sen seudun
kenraalikuvernöörinä, toinen jotakuta niinikään jo aikoja sitten
kuollutta piispaa. Etunurkassa oli muutamia pyhimyskuvia, joitten
eteen yöksi sytytettiin lamppu… ei niin paljon hartaudesta kuin sen
vuoksi, että huone olisi yöllä valaistu. Fjodor Pavlovitš kävi
tavallisesti kovin myöhään yöllä makaamaan, kello kolme tai neljä
aamulla, ja siihen asti hän tavallisesti kaiken aikaa käveli huoneessa
tai istui nojatuolissa mietiskellen. Se oli tullut hänelle tavaksi. Hän
vietti yönsä usein aivan yksin talossa ja lähetti palvelijat
sivurakennukseen, mutta enimmäkseen hänen luokseen yöksi jäi
palvelija Smerdjakov, joka nukkui eteisessä laatikkopenkillä. Aljošan
tullessa sisälle oli päivällinen jo lopussa ja pöytään oli tuotu hilloa ja
kahvia. Fjodor Pavlovitš nautti mielellään päivällisen jälkeen jotakin
imelää konjakin kanssa. Ivan Fjodorovitš oli myös pöydän ääressä ja
joi kahvia. Palvelijat, Grigori ja Smerdjakov, seisoivat pöydän luona.
Sekä herrat että palvelijat olivat selvästi erittäin hyvällä tuulella.
Fjodor Pavlovitš nauraa hohotti kovalla äänellä. Aljoša kuuli jo
eteiseen hänen vinkuvan, ennestään niin tutun naurunsa ja päätteli
heti naurun sävystä, että isä ei vielä ollut sanottavasti humalassa,
vaan toistaiseksi vain hellällä mielellä.
— Kas siinä on hänkin, siinä on hänkin! — uikutti Fjodor Pavlovitš
ilostuen yht'äkkiä suuresti Aljošan tulosta. — Yhdy joukkoomme, käy
istumaan, ota kahvia, — sehän on paastoruokaa, mutta kuumaa ja
hyvää! Konjakkia en tarjoa, sillä sinä paastoat, mutta ehkäpä tahdot?
Et, minä annan mieluummin sinulle likööriä, sinä oiva poika! —
Smerdjakov, käy kaapilla, toisella hyllyllä oikealla, tässä ovat
avaimet, pian!

Aljoša alkoi selitellä, että hän ei tahdo likööriä.

— Tuokoon joka tapauksessa, jos ei sinulle, niin meille, — puheli


Fjodor Pavlovitš säteilevänä. — Mutta maltahan, oletko syönyt
päivällisen vai etkö?

— Olen syönyt, — vastasi Aljoša, joka itse asiassa oli syönyt vain
palan leipää ja juonut lasin kaljaa igumenin keittiössä. — Kuumaa
kahvia minä juon mielelläni.

— Armas! Kelpo poika! Hän juo kahvia. Eikö sitä pitäisi


kuumentaa? Eihän, sehän on kiehuvaa. Mainiota kahvia,
Smerdjakovin tekemää. Tuossa on kahvia ja tuossa on piiraita.
Smerdjakov on taiteilija ja varsinkin kalakeiton laittamisessa, se on
totinen tosi. Tulehan joskus syömään kalakeittoa, ilmoita
edeltäpäin… Mutta kuulehan, kuulehan, minähän käskin äsken sinua
muuttamaan tänne jo tänään patjoinesi ja tyynyinesi? Toitko patjan
tullessasi? Hehehe!…

— En, en tuonut, — hymähti Aljošakin.

— Ahaa, pelästyit, pelästyitpä äsken, pelästyit? Voi sinua,


kyyhkyseni, minäkö voisin pahoittaa mieltäsi! Kuule, Ivan, minä en
voi nähdä hänen katsovan tuolla tavoin silmiin ja nauravan, en voi.
Kaikki sisälmykseni alkavat nauraa hänelle, minä rakastan häntä!
Aljoška, annahan kun siunaan sinua isän siunauksella.

Aljoša nousi seisomaan, mutta Fjodor Pavlovitš oli jo ennättänyt


muuttaa mieltään.

— Ei, ei, nyt teen ylitsesi ainoastaan ristinmerkin, kas näin,


istuudu. No, nyt saat hauskaa ja nimenomaan omasta aiheestasi.
Saat nauraa tarpeeksesi. Meillä on Bileamin aasintamma ruvennut
puhumaan, ja sepä vasta puhuu, sepä vasta puhuu!

Selville kävi, että Bileamin aasintamma oli palvelija Smerdjakov.


Hän oli vielä nuori mies, vain kahdenkymmenenneljän vuoden
ikäinen, mutta hirveän ihmisarka ja vaitelias. Ei niin, että hän olisi
ollut ujo tai hävennyt jotakin, ei, hän oli luonteeltaan päinvastoin
ylpeä ja tavallaan halveksi kaikkia. Mutta eipä voi olla mainitsematta
hänestä vaikkapa lyhyesti, ja se on tehtävä juuri nyt. Marfa
Ignatjevna ja Grigori Vasiljevitš kasvattivat häntä, mutta poika kasvoi
»ilman mitään kiitollisuutta», kuten Grigori hänestä lausui, ujoksi
pojaksi ja katsellen maailmaa nurkasta. Lapsena hän hyvin
mielellään hirtti kissoja ja sitten hautasi ne juhlamenoin. Hän pani
silloin ylleen lakanan, joka oli olevinaan jonkinmoinen papin viitta,
lauloi ja oli suitsuttavinaan pyhää savua. Tämän hän teki aina
kaikessa hiljaisuudessa, mitä suurimmassa salaisuudessa. Grigori
sai hänet kerran kiinni tämmöisestä hommasta ja antoi hänelle
vitsaa, niin että se teki kipeätä. Poika meni nurkkaan ja katseli sieltä
kulmiensa alta viikon verran. — Hän ei rakasta meitä, tuo peto, —
sanoi Grigori Marfa Ignatjevnalle, — eikä hän rakasta ketään. Oletko
sinä mikään ihminen, — kääntyi hän äkkiä suoraan Smerdjakovin
puoleen, — sinä et ole ihminen, sinä olet syntynyt saunan
märkyydestä, semmoinen sinä olet… — Smerdjakov ei, kuten
myöhemmin kävi selville, voinut koskaan antaa hänelle anteeksi
näitä sanoja. Grigori opetti hänet lukemaan ja hänen tultuaan
kahdentoista vuoden ikään alkoi opettaa hänelle raamatun historiaa.
Mutta asia päättyi kohta viemättä tuloksiin. Kerran, jo toisella tai
kolmannella oppitunnilla, poika äkkiä naurahti.

— Mitä sinä? — kysyi Grigori katsoen häneen ankarasti


silmälasiensa alta.

— En mitään. Maailman Herra Jumala loi ensimmäisenä päivänä,


mutta auringon, kuun ja tähdet neljäntenä päivänä. Mistä valo sitten
loisti ensimmäisenä päivänä?

Grigori hämmästyi. Poika katseli ivallisesti opettajaansa. Hänen


katseessaan oli jotakin ylimielistäkin. Grigori ei jaksanut hillitä
itseään. — Täältä se loisti! — huudahti hän ja löi vimmoissaan
oppilasta korvalle. Poika kesti korvapuustin sanaakaan sanomatta,
mutta painautui taas nurkkaan muutamaksi päiväksi. Sattui niin, että
viikon kuluttua hänessä ilmeni kaatuvatauti ensimmäisen kerran,
eikä se sittemmin jättänyt häntä koko elämän aikana. Tästä
kuultuaan Fjodor Pavlovitš näytti ikäänkuin muuttaneen mieltä
poikaan nähden. Ennen hän oli katsellut poikaa jokseenkin
välinpitämättömästi, vaikkakaan ei koskaan torunut häntä, ja
kohdatessaan hän oli aina antanut pojalle kopeekan. Hellällä päällä
ollessaan hän oli toisinaan lähettänyt pojalle pöydästään jotakin
makeata. Mutta nyt, saatuaan tiedon taudista, hän alkoi todenteolla
huolehtia pojasta, kutsutti lääkärin ja hankki hoitoa, mutta tauti
osoittautui mahdottomaksi parantaa. Kohtauksia sattui keskimäärin
kerran kuussa ja eri aikoina. Ne olivat myös erivoimaisia, — toiset
lieviä, toiset erittäin ankaria. Fjodor Pavlovitš kielsi hyvin ankarasti
Grigoria antamasta pojalle ruumiillista rangaistusta ja alkoi päästää
häntä luokseen ylös. Niinikään hän kielsi toistaiseksi antamasta
pojalle minkäänlaista opetusta. Mutta kerran, kun poika jo oli
viidentoista vuoden ikäinen, Fjodor Pavlovitš huomasi hänen
liikuskelevan kirjakaapin luona ja lukevan lasin läpi kirjojen nimiä.
Fjodor Pavlovitšilla oli koko joukko kirjoja, toista sataa nidettä, mutta
häntä itseään ei kukaan ollut nähnyt kirjan ääressä. Hän antoi heti
kirjakaapin avaimen Smerdjakoville: — No, lue sitten, saat ruveta
kirjaston hoitajaksi. Sen sijaan, että vetelehdit pihalla, istu ja lue. Lue
tämä, — ja Fjodor Pavlovitš antoi hänelle kaapista Illat maatalossa
Dikanjkan luona.

Poika luki kirjan, mutta oli tyytymätön, ei naurahtanut kertaakaan,


vaan päinvastoin loppuun päästyään rypisti kulmiaan.

— Mitä? Eikö se naurata? — kysyi Fjodor Pavlovitš.

Smerdjakov oli vaiti.

— Vastaa, hölmö.

— Se on kaikki valetta, — mutisi Smerdjakov hymyillen.

— Mene hiiteen, sinä olet alhainen sielu. Seis, tässä on


Smaragdovin Yleinen historia, siinä on kaikki totta, lue se.

Mutta Smerdjakov ei lukenut Smaragdovia kymmentä sivuakaan,


sillä se tuntui ikävältä. Niinpä kirjakaappi taas sulkeutui. Pian Marfa
ja Grigori ilmoittivat Fjodor Pavlovitšille, että Smerdjakoviin oli
vähitellen ilmaantunut jonkinmoinen kauhea nirsous: hän istuu
liemiastian ääressä, ottaa lusikan ja etsii etsimistään jotakin
liemestä, kumartuu, tirkistelee, ottaa lusikkaan ja nostaa valoa
vastaan.
Torakkako siellä on vai mikä? — kysyy Grigori.

— Kenties kärpänen, — huomauttaa Marfa.

Puhtautta rakastava nuorukainen ei koskaan vastannut, mutta


leivälle ja lihalle ja kaikille ruoille hän teki samoin: nosti palasen
haarukalla valoa kohti, tarkasteli kuin mikroskoopilla, tavallisesti
pitkän ajan, vihdoin viimein katsoi voivansa pistää suuhunsa. »Kas
vain, millainen herra tänne on ilmestynyt», mutisi Grigori häntä
katsellessaan. Kuultuaan Smerdjakovin uudesta ominaisuudesta
Fjodor Pavlovitš päätti heti, että miehestä on tehtävä kokki, ja lähetti
hänet oppiin Moskovaan. Opissa hän oli muutamia vuosia ja
palatessaan hän oli suuresti muuttunut kasvoiltaan. Hän oli äkkiä
luonnottomasti vanhentunut, niin että se ei ollenkaan ollut
sopusoinnussa hänen ikänsä kanssa, oli tullut ryppyiseksi,
keltaiseksi, kuohilaan näköiseksi. Moraalisesti hän oli palatessaan
melkein samanlainen kuin ennen Moskovaan lähtöään: hän oli
edelleen yhtä ihmisarka eikä tuntenut pienintäkään tarvetta etsiä
kenenkään seuraa. Hän oli Moskovassakin, kuten myöhemmin
kerrottiin, aina ollut vaiti. Itse Moskova näytti perin vähässä
määrässä kiinnostaneen häntä, niin että hän tunsi siitä vain joitakin
asioita, mutta mihinkään muuhun hän ei ollut edes kiinnittänyt
huomiota. Kerran hän oli ollut teatterissakin, mutta palannut sieltä
äänettömänä ja tyytymättömänä. Sen sijaan hän oli Moskovasta
luoksemme palatessaan hyvin puettu, hänellä oli puhdas takki ja
puhtaat liinavaatteet, hän puhdisti itse harjalla hyvin huolellisesti
pukunsa säännöllisesti kaksi kertaa päivässä ja hän puhdisti
vasikannahkaisia, komeita saappaitaan hyvin mielellään
erikoislaatuisella englantilaisella vahalla, niin että ne kiilsivät kuin
peili. Hän osoittautui erinomaisen hyväksi kokiksi. Fjodor Pavlovitš
määräsi hänelle palkan, ja tämän palkkansa Smerdjakov käytti miltei
kokonaan vaatteisiin, hiusvoiteeseen, hajuvesiin j.n.e. Mutta
naisväkeä hän näytti halveksivan aivan yhtä paljon kuin miehiäkin,
esiintyi naisten seurassa arvokkaasti, miltei luoksepääsemättömänä.
Fjodor Pavlovitš alkoi katsella häntä eräältä toiseltakin näkökannalta.
Seikka oli semmoinen, että Smerdjakovin kaatuvataudin kohtaukset
olivat tulleet ankarammiksi, ja semmoisina päivinä valmisti ruoan
Marfa Ignatjevna, mikä ei ollenkaan ollut mieluisaa Fjodor
Pavlovitšista.

— Miksi sinulla on kohtauksia useammin? — sanoi hän toisinaan


nyrpeästi uudelle kokilleen katsoen häntä kasvoihin. — Jospa
menisit naimisiin jonkun kanssa, tahdotko, että naitan?…

Nämä puheet saivat Smerdjakovin vain kalpenemaan harmista,


mutta hän ei vastannut mitään. Fjodor Pavlovitš viittasi kädellään ja
meni tiehensä. Pääasia oli, että hän oli kerta kaikkiaan vakuutettu
Smerdjakovin rehellisyydestä, siitä, että tämä ei mitään ota eikä
varasta. Tapahtui kerran, että Fjodor Pavlovitš juovuksissa pudotti
omalle pihalleen lokaan kolme sadan ruplan seteliä, jotka hän juuri
oli saanut, ja kaipasi niitä vasta seuraavana päivänä. Juuri kun hän
oli alkanut etsiä niitä taskuistaan, hän huomasikin, että kaikki kolme
seteliä olivat pöydällä. Mistä? Smerdjakov oli löytänyt ne maasta ja
tuonut jo eilen. — No, veikkoseni, tuommoisia kuin sinä en ole
nähnytkään, — lausahti silloin Fjodor Pavlovitš ja lahjoitti hänelle
kymmenen ruplaa. On lisättävä, ettei hän vain ollut vakuutettu
Smerdjakovin rehellisyydestä, vaan jostakin syystä myös piti
hänestä, vaikka nuorukainen katseli häntäkin kulmiensa alta niinkuin
muitakin eikä koskaan puhunut. Vain harvoin hän sanoi jotakin. Jos
tuohon aikaan jonkun päähän olisi pistänyt häntä katsellessaan
kysyä: mikä herättää tuossa nuoressa miehessä mielenkiintoa ja
mitä hänellä on useimmin mielessä, niin todellakin olisi ollut
mahdotonta saada siitä selvää katsomalla häntä. Ja kuitenkin hän
toisinaan kotona tai myös pihalla ja kadulla pysähtyi, vaipui
mietteisiinsä ja seisoi näin kymmenkunta minuuttiakin. Fysionomisti
olisi häntä katsellessaan sanonut, että tässä ei ole mitään mietteitä
eikä ajatuksia, vaan jonkinmoista itseensä vaipumista. Maalari
Kramskoi on maalannut huomattavan taulun, jonka nimi on Itseensä
vaipunut: siinä on kuvattu talvinen metsä, ja metsässä seisoo tiellä
risaisessa nutussa ja tallukoissa aivan yksinään kokonaan erillään
muusta maailmasta syrjään poikennut talonpoika. Seisoo ja on
ikäänkuin mietteissään, mutta ei ajattele, vaan on »vaipunut
itseensä». Jos häntä nykäisisi, niin hän hätkähtäisi ja katsoisi aivan
kuin heräten, mutta mitään ymmärtämättä. Tosin hän kohta tajuaisi
kaiken, mutta jos häneltä kysyttäisiin, mitä hän siinä seisoessaan
ajatteli, niin hän varmaankaan ei muistaisi mitään, mutta sen sijaan
hän varmaankin kätkisi mieleensä sen vaikutelman, jonka alaisena
hän oli ollessaan itseensä syventyneenä. Nämä vaikutelmat ovat
hänelle kalliita, ja varmaankin hän niitä kokoaa, huomaamattaan ja
tiedottomasti, — mitä varten ja miksi, sitä hän ei tietysti itsekään
tiedä: kenties hän äkkiä, koottuaan monien vuosien vaikutelmat,
jättää kaikki ja menee pyhiinvaellukselle Jerusalemiin etsimään
sielulleen pelastusta, tai kenties yht'äkkiä polttaa poroksi kotikylänsä,
saattaapa samalla kertaa tehdä kumpiakin. Itseensä-vaipujia on
kansassa melkoinen määrä. Yksi noita itseensä-vaipujia on
luultavasti myös Smerdjakov, ja luultavasti hänkin kokosi
vaikutelmiaan ahneesti tietämättä juuri itsekään, miksi teki niin.

7.

Kiista
Mutta Bileamin aasintamma oli äkkiä alkanut puhua. Sattui
omituinen aihe: ollessaan aamulla kauppias Lukjanovin puodissa
ostoksilla kuuli Grigori tältä kertomuksen eräästä venäläisestä
sotamiehestä, joka jossakin kaukana rajalla joutui aasialaisten
vangiksi ja jota nämä pakottivat uhkaamalla kidutusta ja kuolemaa
luopumaan kristinuskosta ja kääntymään islamiin, mutta joka ei
suostunut luopumaan uskostaan, vaan antautui kärsimyksiin, antoi
nylkeä itseltään nahan ja kuoli kiittäen ja ylistäen Kristusta. Tästä
urotyöstä oli kerrottu juuri sinä päivänä saapuneessa
sanomalehdessä. Grigori rupesi puhumaan siitä pöydässä. Fjodor
Pavlovitš oli ennenkin joka kerta aterioituaan ja jälkiruokaa
nauttiessaan mielellään naureskellut ja puhellut, jos ei muiden, niin
vaikkapa Grigorin kanssa. Tällä kertaa hän oli kevyellä ja hauskasti
vilkkaalla mielellä. Maistellessaan konjakkiaan hän kuultuaan
kertomuksen huomautti, että sellaisesta sotamiehestä pitäisi heti
tehdä pyhimys ja nyljetty nahka olisi vietävä johonkin luostariin:
»Sinnepä vasta tulvisi väkeä ja rahaa.» Grigori rypisti kulmiaan
huomatessaan, ettei Fjodor Pavlovitš ollut ollenkaan tullut
liikutetuksi, vaan alkoi ainaisen tapansa mukaisesti pilkata. Silloin
äkkiä oven luona seisova Smerdjakov naurahti. Smerdjakovin oli
sangen usein ennenkin sallittu seisoa pöydän läheisyydessä
päivällisen lopulla. Siitä asti kuin Ivan Fjodorovitš oli saapunut
kaupunkiimme, oli Smerdjakov alkanut tulla päivälliselle melkein joka
kerta.

— Mitäs sinä? — kysyi Fjodor Pavlovitš, joka oli heti huomannut


naurahduksen ja ymmärtänyt, että se tietysti tarkoitti Grigoria.

— Sitähän minä, — alkoi äkkiä Smerdjakov aivan odottamatta


puhua kovalla äänellä, — että vaikka tuon kiitosta ansaitsevan
sotamiehen sankarityö olikin sangen suuri, niin ei kuitenkaan minun
mielestäni olisi siinä ollut mitään syntiä, jos hän tässä tapauksessa
olisikin kieltänyt esimerkiksi Kristuksen nimen ja luopunut
kasteestaan pelastaakseen sillä tavoin henkensä hyviä töitä varten,
joilla hän vuosien kuluessa sitten olisi sovittanut pelkuruutensa.

— Kuinka ei olisi ollut synti? Puhut joutavia, sentähden joudutkin


suoraan helvettiin ja siellä sinua käristetään kuin lampaanlihaa, —
tokaisi Fjodor Pavlovitš.

Juuri silloin Aljoša astui sisälle. Fjodor Pavlovitš, kuten olemme


nähneet, ilostui suuresti Aljošan tulosta.

— Sinun aiheestasi, sinun aiheestasi! — nauraa hihitti hän iloisesti


käskiessään Aljošaa istumaan ja kuuntelemaan.

— Mitä sanoitte lampaanlihasta, niin se ei ole sillä tavoin eikä


siellä siitä mitään tule eikä pidäkään tulla sellaista oikeuden ja
kohtuuden mukaan, — huomautti Smerdjakov lujasti.

— Kuinka niin oikeuden ja kohtuuden mukaan, — huudahti Fjodor


Pavlovitš vielä iloisemmin ja töytäisi Aljošaa polvellaan.

— Konna hän on, se hän on! — lausui äkkiä Grigori. Hän katsoi
vihaisesti Smerdjakovia suoraan silmiin.

— Mitä konnaan tulee, niin malttakaahan mielenne, Grigori


Vasiljevitš, — lausui Smerdjakov tyynesti ja hillitysti. — Ajatelkaa
mieluummin itse, että jos minä olen joutunut kristittyjen ihmisten
kiduttajain vangiksi ja he vaativat minua kiroamaan Jumalan nimen
sekä luopumaan pyhästä kasteesta, niin minulle antaa siihen täyden
valtuuden oma järkeni, sillä mitään syntiä siitä ei tule.
— Johan sinä olet sen sanonut, älä kuvaile, vaan todista! — huusi
Fjodor Pavlovitš.

— Senkin liemenkeittäjä! — kuiskasi Grigori halveksivasti.

— Mitä tulee liemenkeittäjään, niin malttakaa siihenkin nähden


mielenne, Grigori Vasiljevitš, älkääkä haukkuko, vaan ajatelkaa itse.
Sillä heti kun sanon kiduttajille: »Ei, minä en ole kristitty ja minä
kiroan totisen Jumalan», niin samassa minusta Jumalan korkeimman
tuomion kautta tulee heti ja erityisesti anateema kirottu ja pyhästä
kirkosta erotettu, aivan kuin muukalaispakana, vieläpä niin, että
samalla hetkellä kuin sen lausun, tai oikeastaan kun vain aionkin sen
lausua, joten siinä ei kulu neljännessekuntiakaan, niin olen jo
erotettu, onko niin vai eikö, Grigori Vasiljevitš?

Hän kääntyi ilmeisellä mielihyvällä Grigorin puoleen, vaikka itse


asiassa vastasi vain Fjodor Pavlovitšin kysymyksiin ja varsin hyvin
ymmärsi sen, puhuen tahallaan niinkuin nämä kysymykset olisi
hänelle tehnyt Grigori.

— Ivan! — huudahti äkkiä Fjodor Pavlovitš. — Taivuta pääsi aivan


korvani luo. Hän on kaiken tämän keksinyt sinun takiasi, tahtoo, että
sinä häntä kehuisit. Kehu!

Ivan Fjodorovitš kuunteli aivan vakavana isänsä innostunutta


puhetta.

— Seis, Smerdjakov, ole vaiti vähän aikaa, — huudahti taas


Fjodor
Pavlovitš. — Ivan, kallista taas pääsi aivan lähelleni.
Ivan Fjodorovitš taivutti uudelleen päätään hyvin totisen
näköisenä.

— Minä rakastan sinua samoin kuin Aljoškaakin. Älä luule, että en


rakasta sinua. Saako olla konjakkia?

— Antakaa. »Näytpä itse jo olevan aikalailla pätkässä», — ajatteli


Ivan Fjodorovitš katsellen tarkasti isäänsä. Smerdjakovia taas hän
tarkasteli erittäin uteliaana.

— Sinä olet jo nytkin anateema kirottu, — puhkesi Grigori äkkiä


puhumaan, — ja kuinka sinä, konna, sen jälkeen uskallat arvostella,
jos…

— Älä toru, Grigori, älä toru! — keskeytti Fjodor Pavlovitš.

— Odottakaa te, Grigori Vasiljevitš, vaikkapa vain hyvin vähän


aikaa, ja kuunnelkaa jatkoa, sillä minä en ole vielä puhunut kaikkea
loppuun. Samassa kuin Jumala on minut viipymättä kironnut, sinä
samana korkeana hetkenä minusta on näet tullut aivan kuin
muukalaispakana, ja kasteeni on minusta otettu pois ja muuttunut
mitättömäksi, — onko edes tämä oikein puhuttu?

— Puhu pian loppuun, veliseni, puhu loppuun, — hoputti Fjodor


Pavlovitš ottaen mielihyvällä kulauksen ryyppylasistaan.

— Jos kerran en enää ole kristitty, niin siis en valehdellut


kiduttajille, kun he kysyivät: »Olenko kristitty vai enkö», sillä itse
Jumala on poistanut minusta kristillisyyden jo pelkän aikeeni
perusteella ja ennenkuin olen ennättänyt lausua sanaakaan
kiduttajille. Mutta jos minut jo on joukosta erotettu, niin kuinka ja millä
oikeudella minulta kysytään toisessa maailmassa aivan kuin
kristityltä, miksi olen luopunut Kristuksesta, kun jo pelkän
aikomuksen tähden, ennenkuin mitään luopumista olikaan, minut
erotettiin kasteestani? Jos kerran en ole kristitty, niin en myöskään
voi luopua Kristuksesta, sillä eihän minulla silloin ole, mistä
luopuisin. Kuka vaatii edesvastuuseen pakanan tataarilaisen, Grigori
Vasiljevitš, vaikkapa taivaassakin, siitä, että hän ei syntynyt
kristityksi, ja kuka häntä siitä rankaisee, jos nimittäin ajatellaan, että
yhdestä härästä ei nyljetä kahta nahkaa. Ja jos itse Jumala
Kaikkivaltias vaatii tataarilaisen tilille tämän kuoltua, niin luullakseni
hän määrää jonkin kaikkein pienimmistä rangaistuksista (sillä eihän
häntä voi jättää kokonaan rankaisematta) ottaen huomioon, että
eihän ole hänen syynsä, jos hän on tullut pakanallisista
vanhemmista pakanana maailmaan. Eihän Herra Jumala voi ottaa
väkisin tataarilaista ja sanoa hänestä, että hänkin oli kristitty? Sehän
merkitsisi, että Jumala Kaikkivaltias puhuisi silkkaa valhetta. Mutta
voiko Jumala, taivaan ja maan valtias, lausua valheen, vaikkapa vain
yhdessä sanassa?

Grigori oli kuin jähmettynyt ja katseli puhujaa silmät selällään.


Vaikka hän ei hyvin ymmärtänytkään mitä puhuttiin, niin jotakin tästä
sekasotkusta hän yht'äkkiä kuitenkin käsitti ja jäi seisomaan sen
näköisenä kuin mies, joka äkkiarvaamatta on lyönyt otsansa
seinään. Fjodor Pavlovitš joi lasinsa pohjaan ja alkoi nauraa
vinkuvaa nauruaan.

— Aljoška, Aljoška, mitäs arvelet! Voi sinua, senkin kasuisti! Hän


on ollut jesuiittain opissa jossakin, Ivan. Voi sinua, löyhkäävä
jesuiitta, kuka sinua on opettanut? Mutta sinä puhut roskaa, kasuisti,
roskaa, paljasta roskaa. Älä itke, Grigori, tuossa paikassa me
iskemme hänet tomuksi ja tuhaksi. Sanopa minulle tämä, sinä
aasintamma: olkoonpa, että olet kiduttajien edessä oikeassa, mutta
itsesi edessähän sinä kuitenkin olet luopunut uskostasi ja sanot
itsekin, että olit sillä hetkellä anateema kirottu, mutta jos kerran olet
anateema, niin eipä tämän anateeman vuoksi silitetä päätäsi
helvetissä. Mitä sinä tästä ajattelet, oiva jesuiittani?

— Ei ole epäilemistäkään, etten olisi itseni edessä luopunut, mutta


ei siinä kuitenkaan ollut mitään erikoissyntiä, vaan jos minkä verran
syntiä oli, niin se oli kaikkein tavallisinta laatua!

— Millä tavoin kaikkein tavallisinta laatua!

— Valehtelet, kirottu lurjus, — sähisi Grigori.

— Ajatelkaahan itse, Grigori Vasiljevitš, — jatkoi Smerdjakov


tasaisesti ja arvokkaasti, tuntien olevansa voiton puolella, mutta
ikäänkuin osoittaen jalomielisyyttä nujerrettua vastustajaa kohtaan,
— ajatelkaahan itse, Grigori Vasiljevitš: onhan Sanassa sanottu, että
jos teillä on uskoa vaikkapa kaikkein pienimmän siemenen verran ja
te sanotte tälle vuorelle, että se siirtyisi mereen, niin se siirtyy
vähääkään viipymättä heti käskettyänne. Mitäs, Grigori Vasiljevitš,
jos minä olen epäuskoinen, mutta te olette niin uskovainen, että
lakkaamatta torutte minuakin, niin koettakaahan itse sanoa tälle
vuorelle, että se siirtyisi ei mereen (sillä mereen on täältä pitkä
matka), vaan vaikkapa haisevaan jokeemme, joka virtaa tuossa
puutarhamme takana, niin saattepa nähdä itse sillä samalla hetkellä,
että mikään ei siirrykään, vaan kaikki jää entiseen kuntoon ja
eheäksi, huutakaapa miten paljon tahansa. Mutta tämä merkitsee
sitä, että tekään ette usko, Grigori Vasiljevitš, oikealla tavalla, vaan
haukutte ainoastaan muita siitä kaikin tavoin. Jos taasen otamme
lukuun sen, ettei kukaan meidän aikanamme, ette vain te, vaan ei
kerrassaan kukaan, alkaen kaikkein korkeimmista henkilöistä aina
viimeiseen talonpoikaan asti, voi siirtää vuoria mereen, paitsi ehkä
yksi ainoa mies koko maan päällä tai enintään kaksi, ja nämäkin
kenties ovat jossakin Egyptin erämaassa kaikessa salaisuudessa
sieluansa pelastamassa, niin että heitä ei ollenkaan voi löytää, — jos
on näin, jos kaikki muut siis ovat epäuskoisia, niin tokkohan Jumala
kiroaa kaikki nuo muut, toisin sanoen koko maan asujaimiston,
lukuunottamatta noita paria erakkoa, eikä armossansa, joka on
kaikille tunnettu, anna kenellekään heistä anteeksi? Senpä vuoksi
minä luotankin siihen, että jos kerran olen epäillyt, niin minulle
annetaan anteeksi, kun vuodatan katumuksen kyyneliä.

— Seis! — vikisi Fjodor Pavlovitš, ja hänen ihastuksensa kohosi


huippuunsa. — Sinä siis kuitenkin otaksut, että on olemassa pari
sellaista, jotka voivat siirtää vuoria? Ivan, vedä risti seinään, kirjoita
muistiin: tuossa ilmeni venäläinen ihminen kokonaisuudessaan!

— Huomautitte aivan oikein, että tämä on kansallinen piirre


uskossa, — myönsi Ivan Fjodorovitš hymyillen hyväksyvästi.

— Sinä myönnät! Siis se on niin, kun kerran sinäkin olet samaa


mieltä!
Aljoša, onhan se totta? Sehän on täysin venäläistä uskoa?

— Ei, Smerdjakovin usko ei ole ollenkaan venäläistä, — lausui


Aljoša vakavasti ja lujasti.

— En minä puhu hänen uskostaan, vaan tuosta piirteestä, noista


kahdesta erakosta, vain tuosta yhdestä piirteestä: sehän on
venäläistä, venäläistä?

— Niin, se piirre on aivan venäläinen, — hymähti Aljoša.

You might also like