Textbook Uncertainty Modeling For Engineering Applications Flavio Canavero Ebook All Chapter PDF

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 53

Uncertainty Modeling for Engineering

Applications Flavio Canavero


Visit to download the full and correct content document:
https://textbookfull.com/product/uncertainty-modeling-for-engineering-applications-flav
io-canavero/
More products digital (pdf, epub, mobi) instant
download maybe you interests ...

Nonlinear Regression Modeling for Engineering


Applications Modeling Model Validation and Enabling
Design of Experiments 1st Edition R. Russell Rhinehart

https://textbookfull.com/product/nonlinear-regression-modeling-
for-engineering-applications-modeling-model-validation-and-
enabling-design-of-experiments-1st-edition-r-russell-rhinehart/

Uncertainty Quantification in Multiscale Materials


Modeling 1st Edition Yan Wang

https://textbookfull.com/product/uncertainty-quantification-in-
multiscale-materials-modeling-1st-edition-yan-wang/

Probability methods for cost uncertainty analysis a


systems engineering perspective Second Edition Book

https://textbookfull.com/product/probability-methods-for-cost-
uncertainty-analysis-a-systems-engineering-perspective-second-
edition-book/

Modeling of Dynamic Systems with Engineering


Applications 1st Edition Clarence W. De Silva

https://textbookfull.com/product/modeling-of-dynamic-systems-
with-engineering-applications-1st-edition-clarence-w-de-silva/
Shape Dynamics: Relativity and Relationalism Flavio
Mercati

https://textbookfull.com/product/shape-dynamics-relativity-and-
relationalism-flavio-mercati/

Multiphysics Modeling: Numerical Methods and


Engineering Applications: Tsinghua University Press
Computational Mechanics Series 1st Edition Cen

https://textbookfull.com/product/multiphysics-modeling-numerical-
methods-and-engineering-applications-tsinghua-university-press-
computational-mechanics-series-1st-edition-cen/

Data-Driven Modeling for Sustainable Engineering:


Proceedings of the First International Conference on
Engineering, Applied Sciences and System Modeling
(ICEASSM), Accra, 2017 Kondo H. Adjallah
https://textbookfull.com/product/data-driven-modeling-for-
sustainable-engineering-proceedings-of-the-first-international-
conference-on-engineering-applied-sciences-and-system-modeling-
iceassm-accra-2017-kondo-h-adjallah/

Selecting thermoplastics for engineering applications


Second Edition Macdermott

https://textbookfull.com/product/selecting-thermoplastics-for-
engineering-applications-second-edition-macdermott/

Theoretical modeling of organohalide perovskites for


pPhotovoltaic applications 1st Edition Giacomo Giorgi

https://textbookfull.com/product/theoretical-modeling-of-
organohalide-perovskites-for-pphotovoltaic-applications-1st-
edition-giacomo-giorgi/
PoliTO Springer Series

Flavio Canavero Editor

Uncertainty
Modeling for
Engineering
Applications
PoliTO Springer Series

Series editors
Giovanni Ghione, Turin, Italy
Pietro Asinari, Department of Energy, Politecnico di Torino, Turin, Italy
Luca Ridolfi, Turin, Italy
Erasmo Carrera, Department of Mechanical and Aerospace Engineering,
Politecnico di Torino, Turin, Italy
Claudio Canuto, Department of Mathematical Sciences, Politecnico di Torino,
Turin, Italy
Felice Iazzi, Department of Applied Science and Technology, Politecnico di
Torino, Turin, Italy
Andrea Acquaviva, Informatica e Automatica, Politecnico di Torino, Turin, Italy
Springer, in cooperation with Politecnico di Torino, publishes the PoliTO Springer
Series. This co-branded series of publications includes works by authors and
volume editors mainly affiliated with Politecnico di Torino and covers academic
and professional topics in the following areas: Mathematics and Statistics,
Chemistry and Physical Sciences, Computer Science, All fields of Engineering.
Interdisciplinary contributions combining the above areas are also welcome. The
series will consist of lecture notes, research monographs, and briefs. Lectures notes
are meant to provide quick information on research advances and may be based e.g.
on summer schools or intensive courses on topics of current research, while
SpringerBriefs are intended as concise summaries of cutting-edge research and its
practical applications. The PoliTO Springer Series will promote international
authorship, and addresses a global readership of scholars, students, researchers,
professionals and policymakers.

More information about this series at http://www.springer.com/series/13890


Flavio Canavero
Editor

Uncertainty Modeling
for Engineering Applications

123
Editor
Flavio Canavero
Department of Electronics
and Telecommunications (DET)
Politecnico di Torino
Turin, Italy

ISSN 2509-6796 ISSN 2509-7024 (electronic)


PoliTO Springer Series
ISBN 978-3-030-04869-3 ISBN 978-3-030-04870-9 (eBook)
https://doi.org/10.1007/978-3-030-04870-9

Library of Congress Control Number: 2018962917

© Springer Nature Switzerland AG 2019


This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or part
of the material is concerned, specifically the rights of translation, reprinting, reuse of illustrations,
recitation, broadcasting, reproduction on microfilms or in any other physical way, and transmission
or information storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar
methodology now known or hereafter developed.
The use of general descriptive names, registered names, trademarks, service marks, etc. in this
publication does not imply, even in the absence of a specific statement, that such names are exempt from
the relevant protective laws and regulations and therefore free for general use.
The publisher, the authors and the editors are safe to assume that the advice and information in this
book are believed to be true and accurate at the date of publication. Neither the publisher nor the
authors or the editors give a warranty, express or implied, with respect to the material contained herein or
for any errors or omissions that may have been made. The publisher remains neutral with regard to
jurisdictional claims in published maps and institutional affiliations.

This Springer imprint is published by the registered company Springer Nature Switzerland AG
The registered company address is: Gewerbestrasse 11, 6330 Cham, Switzerland
Preface

The systematic quantification of the uncertainties affecting physical systems is


critical for engineering design and analysis, where risks must be reduced as much as
possible. Uncertainties stem naturally from the limited availability or accuracy of
data, from the approximations in modeling or the adequacy of mathematical
predictions, and from the limited precision of computational processing.
Determining appropriate ways and methods of dealing with uncertainty has been
a constant challenge. Recently, research has significantly progressed to develop
algorithms for multi-scale and multi-physics applications based on the development
of stochastic expansions, on surrogate models, and on the quantification of
prediction uncertainty.
This book, with invited chapters, deals with the uncertainty phenomena in
diverse fields. The book collects several extended contributions of presentations
delivered at the Workshop on Uncertainty Modeling for Engineering Applications
(UMEMA), which was held at the Politecnico di Torino (Valentino Castle), Torino,
Italy, in November 2017. The workshop brought together renowned scientists from
different sectors, including aerospace and mechanical applications, structure health
and seismic hazard, electromagnetic energy (its impact on systems and humans) and
global environmental state change, with the scope of sharing their experiences, best
practices and future challenges in Uncertainty Quantification (UQ) applications.
The main objective of this book is to demonstrate the unifying property of the UQ
theme that can be profitably adopted to solve problems of different domains. The
collection in one book of different methodologies for different applications intends to
stimulate the cross-fertilization and alleviate the language barrier among areas sharing
a common background of mathematical modeling for the solution of their problems.

Turin, Italy Flavio Canavero

v
Contents

Quadrature Strategies for Constructing Polynomial


Approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Pranay Seshadri, Gianluca Iaccarino and Tiziano Ghisu
Weighted Reduced Order Methods for Parametrized
Partial Differential Equations with Random Inputs . . . . . . . . . . . . . . . . 27
Luca Venturi, Davide Torlo, Francesco Ballarin and Gianluigi Rozza
A New Approach for State Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Eduardo Souza de Cursi, Rafael Holdorf Lopez and André Gustavo Carlon
Data-Efficient Sensitivity Analysis with Surrogate Modeling . . . . . . . . . 55
Tom Van Steenkiste, Joachim van der Herten, Ivo Couckuyt
and Tom Dhaene
Surrogate Modeling for Fast Experimental Assessment
of Specific Absorption Rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Günter Vermeeren, Wout Joseph and Luc Martens
Stochastic Dosimetry for Radio-Frequency Exposure Assessment
in Realistic Scenarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
E. Chiaramello, S. Fiocchi, M. Parazzini, P. Ravazzani and J. Wiart
Application of Polynomial Chaos Expansions for Uncertainty
Estimation in Angle-of-Arrival Based Localization . . . . . . . . . . . . . . . . . 103
Thomas Van der Vorst, Mathieu Van Eeckhaute, Aziz Benlarbi-Delaï,
Julien Sarrazin, François Quitin, François Horlin and Philippe De Doncker
Reducing the Statistical Complexity of EMC Testing: Improvements
for Radiated Experiments Using Stochastic Collocation and Bootstrap
Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Chaouki Kasmi, Sébastien Lalléchère, Sébastien Girard,
José Lopes-Esteves, Pierre Bonnet, Françoise Paladian and Lars-Ole Fichte

vii
viii Contents

On the Various Applications of Stochastic Collocation


in Computational Electromagnetics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Dragan Poljak, Silvestar Sesnic, Mario Cvetkovic, Anna Susnjara,
Pierre Bonnet, Khalil El Khamlichi Drissi, Sebastien Lallechere
and Françoise Paladian
Hybrid Possibilistic-Probabilistic Approach to Uncertainty
Quantification in Electromagnetic Compatibility Models . . . . . . . . . . . . 157
Nicola Toscani, Flavia Grassi, Giordano Spadacini
and Sergio A. Pignari
Measurement Uncertainty Cannot Always Be Calculated . . . . . . . . . . . 173
Carlo F. M. Carobbi
Quadrature Strategies for Constructing
Polynomial Approximations

Pranay Seshadri, Gianluca Iaccarino and Tiziano Ghisu

Abstract Finding suitable points for multivariate polynomial interpolation and


approximation is a challenging task. Yet, despite this challenge, there has been
tremendous research dedicated to this singular cause. In this paper, we begin by
reviewing classical methods for finding suitable quadrature points for polynomial
approximation in both the univariate and multivariate setting. Then, we categorize
recent advances into those that propose a new sampling approach, and those centered
on an optimization strategy. The sampling approaches yield a favorable discretization
of the domain, while the optimization methods pick a subset of the discretized sam-
ples that minimize certain objectives. While not all strategies follow this two-stage
approach, most do. Sampling techniques covered include subsampling quadratures,
Christoffel, induced and Monte Carlo methods. Optimization methods discussed
range from linear programming ideas and Newton’s method to greedy procedures
from numerical linear algebra. Our exposition is aided by examples that implement
some of the aforementioned strategies.

Keywords Polynomial approximation · Numerical integration · Optimization


Gauss quadrature

P. Seshadri
Department of Engineering, University of Cambridge, Cambridge, UK
e-mail: ps583@cam.ac.uk
P. Seshadri
The Alan Turing Institute, London, UK
G. Iaccarino (B)
Department of Mechanical Engineering, Institute for Computational and Mathematical
Engineering, Stanford University, Stanford, CA, USA
e-mail: jops@stanford.edu
T. Ghisu
Department of Mechanical, Chemical and Materials Engineering, Universitá di Cagliari,
Cagliari, Sardinia, Italy
e-mail: t.ghisu@unica.it

© Springer Nature Switzerland AG 2019 1


F. Canavero (ed.), Uncertainty Modeling for Engineering Applications,
PoliTO Springer Series, https://doi.org/10.1007/978-3-030-04870-9_1
2 P. Seshadri et al.

1 Introduction

Over the past few years there has been a renewed research effort aimed at construct-
ing stable polynomial approximations: understanding their theoretical properties [1,
15, 17, 35, 44, 55, 59, 60, 71] and extending their practical use. The latter spans
from applications in spectral methods [65], uncertainty quantification and the related
sensitivity analysis [30, 39, 51, 57] to dimension reduction [58] and design under
uncertainty [54]. One topic germane to the field has been to find suitable points for
multivariate polynomials using as few points as possible. The application-centric
high level idea can be described as follows:

select a polynomial basis



evaluate model at quadrature points

estimate polynomial coefficients

compute moments, sensitivities and probability density functions

Motivated by reducing the number of samples, and providing scalable compu-


tational methods for doing so, numerous deterministic and randomized sampling
schemes have been proposed. Before we delve into recent strategies for estimating
these using perspectives from least squares, a brief overview of some of the more
fundamental concepts is in order.
 m
Quadrature rules given by ζ i , ωi i=1 seek to find d-dimensional points ζ i ∈ Rd
and weights ωi > 0 in R such that the integral of a function f may be expressed as
 
m
 
f (ζ ) ρ (ζ ) dζ ≈ f ζ i ωi (1)
Rd i=1

where ρ(ζ ) is a known multivariate weight function—i.e., Gaussian, uniform,


Cauchy, etc. or product thereof. These d-dimensional points are sampled over the
support of ζ = (ζ (1) , . . . , ζ (d) ), mutually independent random variables under the
joint density ρ(ζ ). By construction, this quadrature rule must also satisfy

 
m
   
ψ p ζ i ψ q ζ i ωi ≈ ψ p (ζ ) ψ q (ζ ) ρ (ζ ) dζ = δ pq (2)
i=1 Rd

where ψ p (ζ ) is a multivariate polynomial L 2 -orthogonal on Rd when weighted by


the joint density ρ(ζ ). Here δ pq denotes the Kronecker delta; subscripts p and q are
multi-indices that denote the order of ψ and its composite univariate polynomials
ψ j via
Quadrature Strategies for Constructing Polynomial Approximations 3


d
 (k) 
ψ p (ζ ) = ψ p(k)
k
ζ where p = ( p1 , . . . , pd ) ∈ Nd . (3)
k=1

The finite set of indices in p is said to belong to a multi-index set I . The number of
multi-indices present in p, q ∈ I is set by choosing elements in I to follow certain
d
rules, e.g., the sum of all univariate polynomial orders must satisfy i=1 pi ≤ k,
yielding a total order index set [70]. A tensor order index, which scales exponentially
in d is governed by the rule maxk pk ≤ k. Other well-known multi-index sets include
hyperbolic cross [71] and hyperbolic index sets [4]. We shall denote the number of
elements in each index set by n = card( p).
From (1) and (2) it should be clear that one would ideally like to minimize m and
yet achieve equality in the two expressions. Furthermore, the degree of exactness
associated with evaluating the integral of the function in (1) will depend on the
highest order polynomial (in each of the d-dimensions) that yields equality in (2).
Prior to elaborating further on multivariate quadrature rules, it will be useful to detail
key ideas that underpin univariate quadrature rules. It is important to note that there
is an intimate relationship between polynomials and quadrature rules; ideas that date
back to Gauss, Christoffel and Jacobi.

1.1 Classical Quadrature Techniques

Much of the development of classical quadrature techniques is due to the founda-


tional work of Gauss, Christoffel and Jacobi. In 1814 Gauss originally developed
his quadrature formulas, leveraging his theory of continued fractions in conjunction
with hypergeometric series using what is today known as Legendre polynomials.
Jacobi’s contribution was the connection to orthogonality, while Christoffel is cred-
ited with the generalization of quadrature rules to non-negative, integrable weight
functions ρ(ζ ) ≥ 0 [24]. The term Gauss-Christoffel quadrature broadly refers to
all rules of the form (1) that have a degree of exactness of (2m − 1) for m points
when d = 1. The points and weights of Gauss rules may be computed either from the
moments of a weight function or via the three-term recurrence formula associated
with the orthogonal polynomials. In most codes today, the latter approach, i.e., the
Golub and Welch [32] approach is adopted. It involves  computing the eigenvalues
of a tridiagonal matrix1 —incurring complexity O m 2 —of the recurrence coeffi-
cients associated with a given orthogonal polynomial. For uniform weight func-
tions ρ(ζ ) these recurrence coefficients are associated with Legendre polynomials,
and the resulting quadrature rule is termed Gauss-Legendre. When using Hermite
polynomials—orthogonal with respect to the Gaussian distribution—the resulting
quadrature is known as Gauss-Hermite. In applications where the weight functions

1 Known colloquially as the Jacobi matrix.


4 P. Seshadri et al.

are arbitrary, or data-driven,2 the discretized Stieltjes procedure (see Sect. 5 in [25])
may be used for computing the recurrence coefficients.

Degree of exactness: The notion of degree of exactness dates back to Radau


[24]; all univariate quadrature rules are associated with a degree of exactness,
referring to the highest degree polynomial that can be integrated exactly for
a given number of points m. For instance, Gauss-Legendre quadrature has a
degree of exactness of (2m − 1). Gauss-Lobatto quadrature rules on the other
hand have a degree of exactness of (2m − 3), while Clenshaw-Curtis (see
[27]) have a degree of exactness of (m − 1)—although in practice comparable
accuracy to Gauss quadrature rules can be obtained (see Trefethen’s mono-
graph [66] and Davis and Rabinowitz [20]). One way to interpret this degree
of exactness is to inspect the elements of a Gram matrix G = AT A, where A
is formed by evaluating the orthogonal polynomials at the quadrature points

A(i, j) = ψ j (ζi ) ωi where A ∈ Rm×n , (4)

with m quadrature points and the first n polynomials. Thus, each element of
the Gram matrix seeks to approximate
 
m
G( p, q) = ψ p (ζ ) ψq (ζ ) ρ (ζ ) dζ ≈ ψ p (ζi ) ψq (ζi ) ωi = δ pq (5)
i=1

To clarify this, consider the example case of a Gauss-Legendre rule with m = 5.


The highest polynomial degree that this rule can integrate up to is 9, implying
that the first 4-by-4 submatrix of G will be the identity matrix as the combined
polynomial degree of the terms inside the integral in (5) is 8. This is illustrated
in Fig. 1a. In Fig. 1b, c similar results are shown for Gauss-Lobatto (the highest
degree being 7) and Clenshaw-Curtis (which integrates higher than degree
5). For all the aforementioned subfigures, element-wise deviations from the
identity can be interpreted as the internal aliasing errors associated with each
quadrature rule.

Classical extensions of Gauss quadrature include:


• Gauss-Radau and Gauss-Lobatto: The addition of end-points (a, b) in quadra-
ture rules. In Gauss-Radau the addition of one end-point (a, b] = {ζ ∈ ρ|a < ζ
≤ b} and both in Gauss-Lobatto, i.e., [a, b] = {ζ ∈ ρ|a ≤ ζ ≤ b} [24].
• Gauss-Kronrod and Gauss-Patterson: Practical extensions of m-point Gauss
rules by adaptively adding m + 1 points to the quadrature rule to yield a combined

2 Inthe case of data-driven distributions, kernel density estimation or even a maximum likelihood
estimation may be required to obtain a probability distribution that can be used by the discretized
Stieltjes procedure.
Quadrature Strategies for Constructing Polynomial Approximations 5

(a) (b) (c)

Fig. 1 The Gram matrix G for three quadrature rules showing their practical degrees of exactness:
a Gauss-Legendre; b Gauss-Lobatto; c Clenshaw-Curtis. The vertical axis in the figures show the
polynomial degree and the colorbar shows the values of the entries of these matrices

degree of exactness of (3m + 1) or (3n + 2) depending on whether m is even or


odd respectively; based on the work of Kronrod [42]. Patterson [50] rules are based
on optimizing the degree of exactness of Kronrod points and with extensions to
Lobatto rules. The intent behind these rules is that they admit certain favorable
nesting properties.
• Gauss-Turán: The addition of derivative values (in conjunction with function
values) within the integrand (see [26]).

1.2 Multivariate Extensions of Classical Rules

Multivariate extensions of univariate quadrature rules exist in the form of tensor


product grids, assuming one is ready to evaluate a function at m d points. They are
expressed as:

 
f (ζ ) ρ (ζ ) dζ ≈ Qqm 1 ⊗ · · · ⊗ Qqm d ( f )
Rd

m1 
md
 
= ... f ζ jd , . . . , ζ jd ω j1 . . . ω jd
(6)
j1 =1 jd =1

m
 
= f ζ j ωj.
j=1

The notation Qqm i denotes a linear operation of the univariate quadrature rule applied
to f along direction i; the subscript q stands for quadrature.
In the broader context of approximation, one is often interested in the projection
of f onto ψ p (ζ ). This pseudospectral approximation is given by


n 
m
   
f (ζ ) ≈ xi ψi (ζ ) , where xi = f ζ j ψi ζ j ω j . (7)
i=1 j=1
6 P. Seshadri et al.

Inspecting the decay of these pseudospectral coefficients, i.e., x = (x1 , . . . , xm )T


is useful for analyzing the quality of the overall approximation to f (ζ ), but more
specifically for gaining insight into which directions the function varies the greatest,
and to what extent. We remark here that for simulation-based problems where an
approximation to f (ζ ) may be required, it may be unfeasible to evaluate a model
at a tensor grid of quadrature points, particularly if d is large. Sparse grids [28, 62]
offer moderate computational attenuation to this problem. One can think of a sparse
grid as linear combinations of select anisotropic tensor grids
   
f (ζ ) ρ (ζ ) dζ ≈ α (r) Qqm 1 ⊗ · · · ⊗ Qqm d ( f ) , (8)
Rd r∈K

where for a given level l—a variable that controls the density of points and the highest
order of the polynomial in each direction—the multi-index K and coefficients α(r)
are given by

d −1
K = r ∈ Nd : l + 1 ≤ |r| ≤ l + d and α (r) = (−1)−|r|+d+l . (9)
− |r| + d + l

Formulas for the pseudospectral approximations via sparse grid integration can then
be written down; we omit these in this exposition for brevity.

Approximation via sparse grids: To motivate the use of sparse grids, and to
realize its limitations, consider the bi-variate function

f (ζ ) = ex p (3ζ1 + ζ2 ) where ζ ∈ [−1, 1]2 (10)

and ρ(ζ ) is the uniform distribution over the domain. Figure 2a plots the points
in the parameter space for an isotropic tensor product grid using tensor products
of order 35 Gauss-Legendre quadrature points, while (b) plots estimates of the
pseudospectral coefficients using a tensor product Legendre polynomial basis
in ψ p . A total of 1296 function evaluations were required for these results.
Upon inspecting (b) it is apparent that coefficients with a total order of
12 and greater can be set to zero with near negligible change in the func-
tion approximation. In Fig. 2c–f we present two solutions that achieve this.
Figure 2c–d plot the results for a sparse grid with a linear growth rule (essen-
tially emulating a total order index set) with l = 12, requiring 1015 function
evaluations, while in Fig. 2e–f the results show an exponential growth rule with
l = 5, requiring 667 function evaluations. Clearly, using sparse grid quadrature
rules can reduce the number of model evaluations compare to tensor product
grids.
Quadrature Strategies for Constructing Polynomial Approximations 7

(a) (b)

(c) (d)

(e) (f)

Fig. 2 Parameter space points and pseudospectral coefficients (shown on a log base 10 scale)
obtained via a a, b tensor grid with a maximum univariate order of 35; c, d sparse grid with a linear
growth rule and l = 12; e, f sparse grid with an exponential growth rule and l = 6. The number of
unique quadrature points from the three experiments were 1296, 1015 and 667 respectively

While sparse grids and their adaptive variants [19, 52] are more computationally
tractable than tensor product grids, they are still restricted to very specific index sets,
even with linear, exponential and slow exponential [11] growth rules. Furthermore,
when simulation-based function evaluations at the quadrature points fail (or are
corrupted), one may have to resort to interpolation heuristics. In comparison, least
squares methods offer far more flexibility—both in terms of a choice of the basis and
in negotiating failed simulations.
8 P. Seshadri et al.

1.3 Scope and Outline of Paper

Our specific goal in this paper is to use ideas from polynomial least squares to
generate quadrature rules. Without loss of generality, these quadrature rules will be
used to estimate the pseudospectral coefficients x by solving

minimize
n
Ax − b 2 , (11)
x∈R

where we define the elements of A ∈ Rm×n as per (4). For completeness, we restate
this definition but now in the multivariate setting, i.e.,

A(i, j ) = ψ j (ζ ) ωi , j ∈ I , card(I ) = n, i = 1, . . . , m. (12)

Typically I will be either a total order or a hyperbolic basis. The entries of the
vector b ∈ Rm comprise of weighted model √ evaluations
  at the m quadrature points;
individual entries are given by b(i) = ωi f ζ i . Assuming A and b are known,
solving (11) is trivial—the standard QR factorization can be used. However,
 the
true
m
challenge lies in selecting multivariate quadrature points and weights ζ i , ωi i=1 ,
such that:
• For a given choice of n, the number of quadrature points m can be minimized and
yield a rule that has a high degree of exactness;
• The least squares approximation in (11) is accurate;
• The least squares solution is stable with respect to perturbations in b.
We will explore different strategies for generating A and techniques for subsampling
it—even introducing a new approach in Sect. 3.2. Broadly speaking, strategies for
computing multivariate quadrature points and weights via least squares involve two
key decisions:
1. Selecting a sampling strategy: A suitable discretization of the domain from which
quadrature points need to be computed;
2. Formulating an optimization problem: The strategy for subselecting points from
this sampling (if required) via the optimization of a suitable objective.
Our goal in this manuscript is to describe the various techniques for generating
these quadrature points and to make precise statements (where permissible) on their
computational complexity. We substantiate our detailed review of literature with
examples using the open-source code Effective Quadratures [56].3

3 Thecodes to replicate the figures in this paper can be found at the website: www.effective-
quadratures.org/publications.
Quadrature Strategies for Constructing Polynomial Approximations 9

2 Selecting a Sampling Strategy

In this section we present methods for discretizing the domain based on the support
of the parameters and their distributions. The survey builds on a recent review of
sampling techniques for polynomial least squares [34] and from more recent texts
including Narayan [48, 49] and Jakeman and Narayan [37].
Intuitively, the simplest sampling strategy for polynomial least squares is to gen-
erate random Monte-Carlo type samples based on the joint density ρ(ζ ). Migliorati
et al. [45] provide a practical sampling heuristic for obtaining well conditioned matri-
ces A ∈ Rm×n ; they suggest sampling with m = n 2 for total degree and hyperbolic
cross spaces. Furthermore,
 they prove that as the number of samples m → ∞, the
condition number κ AT A → 1 (see p. 441 in [45]). While these random samples
can be pruned down using the optimization strategies presented in Sect. 3, there are
other sampling alternatives.

2.1 Christoffel Samples

The Christoffel sampling recipe of Narayan and co-authors [49] significantly out-
performs the Monte Carlo approach in most problems. To understand their strategy,
it will be useful to define the diagonal of the orthogonal projection kernel


n
K n (ζ ) := ψ 2j (ζ ) , (13)
j=1

where as before the subscript n denotes card(I ). We associate the above term with
a constant
K ∞  sup (K n (ζ )) , (14)
ζ ∈R D

which has a lower bound of n. Cohen et al. [17] prove that if the number of samples
m satisfies the bound
m K ∞
χ , (15)
nlog(m) n

for some constant χ , then the subsequent least squares problem is both stable
and accurate with high probability. The key ingredient to this bound, the quantity
K ∞ , tends to be rather small for Chebyshev polynomials—scaling linearly with
n in the univariate case—but will be large for other polynomials, such as Legen-
dre polynomials—scaling quadratically with n. Multivariate examples are given in
[15] and lead to computationally demanding restrictions on the number of samples
required to satisfy (15) [18, 49]. Working with this bound, Narayan et al. provide
a sampling strategy that leverages the fact that the asymptotic characteristics for
10 P. Seshadri et al.

total order polynomials can be determined. Thus, if the domain is bounded with a
continuous ρ, then limit of m/K n —known as the Christoffel function—is given by

m ρ (ζ )
lim = (16)
n→∞ K n (ζ ) ν (ζ )

where the above statements holds weakly, and where ν(ζ ) is the weighted pluripo-
tential equlibrium measure (see Sect. √ 2.3 in [49] for the definition and significance).
This implies that the functions φ = ψ m/K n form an orthogonal basis with respect
to a modified weight function ρ K n /m. This in turn yields a modified reproducing
diagonal kernel
m
n
K̂ n = φ2 = K n = n, (17)
j=1
K n

which attains the optimal value of n. The essence of the sampling strategy is to
sample from ν (performing a Monte Carlo on the basis φ), which should in theory
reduce the sample count as dictated by (15).
The challenge however is developing computational algorithms for generating
samples according to ν(ζ ), since precise analytical forms are only known for a
few domains. For instance, when D = [−1, 1]d , the measure ν(ζ ) is the Chebyshev
(arcsine) distribution. Formulations for other distributions such as the Gaussian and
exponential distributions are in general more complex and can be found in Sect. 6
of [49].

Comparing condition numbers: But how much lower are the condition num-
bers when we compare standard Monte Carlo with Christoffel sampling?
Figure 3 plots the mean condition numbers (averaged over 10 trials) for Legen-
dre polynomials in d = 2 in (a) and (b), and d = 4 in (c) and (d). Two different
oversampling factors are also applied; (a) and (c) have an oversampling factor
of 1.2 while (b) and (d) have an oversampling factor of 2–i.e., m = 2n. For the
Christoffel results, the samples are generated from the Chebyshev distribution.
It is apparent from these figures that the Christoffel sampling strategy does
produce more well conditioned matrices on average. We make two additional
remarks here. The first concerns the choice of the weights. In both sampling
strategies the quadrature weights ωi are computed via

ω̃i n  2 
ωi = m , where ω̃i = ψ j ζi (18)
k=1 ω̃k m
j ∈I

ensuring that the weights sum up to unity. The second concerns the Gram
matrix AT A, shown in Fig. 4 for the Christoffel case with a maximum order of
3, with d = 4 and an oversampling factor of 2. Although the condition number
Quadrature Strategies for Constructing Polynomial Approximations 11

(a) (b)

(c) (d)

Fig. 3 A comparison of condition numbers for A when constructing the matrix using multivariate
Legendre polynomials evaluated at either Monte Carlo or Christoffel samples. Experiments for a
d = 2, m = 1.2n; b d = 2, m = 2n; c d = 4, m = 1.2n; d d = 2, m = 2n. Plotted are the mean
values of 10 random trials

of this matrix is very low (4.826), one can clearly observe sufficient internal
aliasing errors that would likely effect subsequent numerical computation of
moments.

2.2 Subsampling Tensor Grids

The idea of constructing A using samples from a tensor grid and then subsampling
its rows has been explored from both compressed sensing4 [64] and least squares
[55, 71] perspectives. In Zhou et al. [71] the authors randomly subsample the rows
and demonstrate stability in the least squares problem with m scaling linearly with
n. In Seshadri et al. [55], a greedy optimization strategy is used to determine which
subsamples to select; they report small condition numbers even when n = m for
problems where d ≤ 7 and a total order of degree ≤ 15. Details of their optimization

4 By solving the basis pursuit (and de-noising) problem.


12 P. Seshadri et al.

Fig. 4 The Gram matrix G = AT A for one of the trials for the case where d = 4 and m = 2n
showing its deviation from the identity

(a) (b)

Fig. 5 A comparison of condition numbers for A when constructing the matrix using multivariate
Legendre polynomials evaluated at either randomized or effectively subsampled quadrature points.
Experiments for a d = 2, m = 1.2n; b d = 4, m = 1.2n. For the randomized technique, we plot
the mean values of 10 random trials

strategy are presented in Sect. 3. One drawback of their technique is the requirement
that the full A matrix must be stored and passed onto the optimizer—a requirement
that can be circumvented in the randomized approach, albeit at the cost of m being
greater than n (typically). A representative comparison of the condition numbers is
Quadrature Strategies for Constructing Polynomial Approximations 13

shown in Fig. 5. In these results, the isotropic tensor grid from which the subsamples
are computed corresponds to the highest total order of the polynomial basis (shown
on the horizontal axis).

2.3 Coherence and Induced Sampling

Building on some of the ideas discussed previously in Sect. 2.1, one can detail an
importance sampling strategy that yields stable least squares estimates for m  n,
up to log factors. The essence of the idea is to define a new distribution μ such that
⎛ ⎞
1 ⎝ 2
n
Kn
μ= ρ= ψ (ζ )⎠ ρ. (19)
n n j=1 j

It should be noted that while ρ is a product measure and therefore easy to sample
from, μ is not and thus requires either techniques based on Markov chain Monte
Carlo (MCMC) or conditional sampling [18]. More specifically, μ depends on m,
so if one enriches the space with more samples or change the basis, then μ will
change. In [35], the authors devise an MCMC strategy which seeks to find μ, thereby
explicitly minimizing their coherence parameter (a weighted form of K ∞ ). In
[48], formulations for computing μ via induced distributions is detailed. In our
numerical experiments investigating the condition numbers of matrices obtained
via such induced samples—in a similar vein to the Fig. 3—the condition numbers
were found to be comparable to those from Christoffel sampling.

3 Optimization Strategies

In the case of Christoffel, Monte Carlo and even subsampling based techniques, a
reduction in m can be achieved, facilitating near quadrature like degree of exactness
properties. In this section we discuss various optimization techniques for achieving
this.

3.1 Greedy Linear Algebra Approaches

It will be convenient to interpret our objective as identifying a suitable submatrix of


A ∈ Rm×n by only selecting k m rows. Ideally, we would like k to be as close to
n as possible. Formally, we write this submatrix as
14 P. Seshadri et al.

Table 1 Sample objectives Case Objective


for optimization  
P1 minimize σmax Âz
z  
P2 maximize σmin Âz
z  
P3 minimize κ Âz
z     
k
P4 maximize vol Âz = i=1 σi Âz
z  T 
 
P5 minimize  Âz Âz 
z 2

1 T
m
Âz = z i ai e
τ i=1
where 1T z = k,
(20)

m
τ= z i wi ,
i=1
z i ∈ {0, 1}

and where aiT represents the rows of A, and e ∈ Rk and 1 ∈ Rm are vector of ones. The
notation above indicates that z ∈ Rm is a boolean vector. The normalization factor τ
is introduced to ensure the weights associated with the subselected quadrature rule
sum up to one.
Table 1 highlights some of the various optimization objectives that may be pursued
for finding z such that the resulting Âz yields accurate and stable least squares
solutions.
We remark here that objectives P1 to P4 are proven NP-hard problems (see The-
orem 4 in Civril and Magdon-Ismail   [16]); although it is readily apparent that all
the objectives require evaluating mk possible choices—a computationally unwieldy
task for large values of m and k. Thus some regularization or relaxation is necessary
for tractable optimization strategies.
We begin by focusing on P4. In the case where k = n, one can express the vol-
ume maximization objective as a determinant maximization problem. Points that in
theory maximize this determinant, i.e., the Fekete points, yield a Lebesgue constant
that typically grows logarithmically—at most linearly—in n [6]. So how do we find
a determinant maximizing submatrix of A by selecting k of its rows? In Guo et al.
[33] the authors show that if there exists a point stencil that indeed maximizes the
determinant, then a greedy optimization can recover the global optimum (see The-
orem 3.2 in Guo et al. [33]). Furthermore, the authors prove that either maximizing
the determinant or minimizing the condition number (P3) is likely to yield equivalent
solutions. This explains their use of the pivoted QR factorization for finding such
points; its factorization is given by

AT P = Q (R1 R2 ) , (21)
Quadrature Strategies for Constructing Polynomial Approximations 15

where Q ∈ Rn×n is an orthogonal matrix and R1 ∈ Rn×n is an upper triangular


matrix that is invertible and Rn×(m−n) . The permutation matrix P ∈ Rm×m is based
on a pivoting strategy that seeks to either maximize σmax (R1 ) or minimize σmin (R2 ).
As Björck notes (see Sect. 2.4.3 in [3]) both these strategies are in some cases
equivalent and thus greedily maximize the diagonal entries of R1 and therefore serve
as heuristics for achieving all the objectives in Table 1. Comprehensive analysis on
pivoted QR factorizations can be found in [13, 14, 21]. Techniques for the closely
related subset selection problem can also be adopted and build on ideas based on
random matrix theory (see Deshpande and Rademacher [22] and references therein).
The monograph by Miller [46] which also provides a thorough survey of techniques,
emphasizes the advantages of methods based on QR factorizations.

Optimizing to find Gauss points: In the univariate case, it is known that


Gauss-Legendre quadrature points are optimal with respect to a uniform mea-
sure. In an effort to gauge the efficacy of some of the optimization strate-
gies discussed in this paper, we carry out a simple numerical experiment. Let
A ∈ R101×K be formed by evaluating up to order K Legendre polynomials at
the first 101 Gauss-Legendre quadrature points. Each of the aforementioned
greedy strategies is tasked with finding a suitable submatrix Âz ∈ R K ×K . The
quadrature points embedded in z for K = 4 and K = 8 are shown in Fig. 6a
and b respectively. It is interesting to observe how the points obtained from
LU with row pivoting, QR with column pivoting and SVD-based subset selec-
tion all closely approximate the Gauss-Legendre points! This figure—and the
numerous other cases we tested for d = 1—show that the difference between
the various optimization strategies is not incredibly significant; all of them
tend to converge close to the optimal solution.
But what happens when d increases? Figure 7a plots the subsampled points
obtained from the three linear algebra optimization strategies when subsam-
pling from a tensor grid with order 50 in both ζ1 and ζ2 directions. The basis
used—i.e., the columns of A—is an isotropic tensor product with an order
of 3. As expected, the obtained points are very similar to Gauss-Legendre
tensor product points with order 3. In Fig. 7b, instead of subsampling from
a higher order tensor grid, we subsample from Christoffel samples, which in
the uniform case corresponds to the Chebyshev distribution; the basis is the
same as in (a). In this case it is interesting to note that the LU and QR pivoting
approaches, which are similar, yield slightly different results when compared
to the SVD approach.

The use of such rank revealing factorizations for minimizing the condition number
of a Vandermonde-type matrix have been previously investigated in [7, 55] albeit on
different meshes. When pruning rows from A, the condition number of Âz can be
bounded by   
κ Âz ≤ κ ( A) 1 + s 2 n (m − n), (22)
16 P. Seshadri et al.

(a) (b)

Fig. 6 Approximation to the Gauss-Legendre quadrature points obtained by subsampling from


a grid of order 100 using various optimization strategies with an a order 4; b order 8 Legendre
polynomial basis

(a) (b)

Fig. 7 Approximation to the [3, 3] Gauss-Legendre quadrature points obtained by subsampling


from a grid of with 2601 samples using various optimization strategies: a Subsampling from a
tensor grid of order [50, 50]; b Subsampling from 2601 randomly distributed Chebyshev points

where s > 1 is a constant based on the pivoting algorithm. In Seshadri et al. [55] the
authors draw upon a subset selection strategy from Chap. 5 of [31] that uses both the
SVD and a rank revealing QR factorization for identifying a more well conditioned
submatrix. However, as m and n get progressively larger, the costs associated with
computing both the SVD O(m 2 n 3 ) and a Householder (or modified Gram-Schmidt)-
based rank revealing QR factorization should be monitored. Other rank revealing
techniques such as strong LU factorizations [47] and randomized QR with column
pivoting [23, 43] may also be opted for.
To speed up the optimization process—a consideration that may be ignored when
model evaluations themselves take hours—other techniques have been proposed.
Shin and Xiu [59, 60] optimize a metric similar to P4
Quadrature Strategies for Constructing Polynomial Approximations 17

⎛  T  ⎞1/k
⎜ det Âz Âz ⎟
maximize ⎜
⎝ k   ⎟ , (23)
z ⎠
i=1  Âz (i) 

where Â(i)z denotes the i-th column of Âz . To ascertain which rows z to use, the
authors outline a greedy strategy that begins with a few initially selected rows and then
T
adds rows based on whether they increase the determinant of the Gramian, Âz Âz .
To abate the computational cost of computing the determinant for each candidate,
they devise a rank-2 update to the determinant (of the Gramian) based on Sylvester’s
determinant formula and the Sherman-Morrison formula. In a similar vein, Ghili and
Iaccarino [29] lay out a series of arguments—motivated by reducing the operational
complexity of the determinant-based optimization—for optimizing the trace of the
design matrix instead. They observe that since the Frobenius norm is an upper bound
on the spectral norm and because all the singular values contribute to the aliasing
error, optimizing over this norm will undoubtedly yield a small spectral norm. The
authors formulate a coordinate descent optimization approach to find suitable points
and weights.

3.2 Convex Relaxation via Newton’s Method

In general the aforementioned objectives are non-convex. We discuss an idea that


permits these objectives to be recast as a convex optimization problem. Our idea
originates from the sensor selection problem [36, 41]: given a collection of m sensor
measurements—where each measurement is a vector—select k measurements such
that the error covariance of the resulting ellipsoid is minimized. We remark here
that while a generalized variant of the sensor selection problem is NP-hard (see [2]);
the one we describe below has not yet been proven to be NP-hard. Furthermore,
by selecting the optimization variable to be a boolean vector z that restricts the
measurements selected, this problem can be cast as a determinant maximization
problem [68] where the objective is a concave function in z with binary constraints on
its entries. This problem can be solved via interior point methods and has complexity
O(m 3 ). Joshi and Boyd [38] provide a formulation for a relaxed sensor selection
problem that can be readily solved by Newton’s method, where the binary constraint
can be substituted with a penalty term added to the objective function. By replacing
their sensor measurements with rows from our Vandermonde type matrix, one arrives
at the following maximum volume problem
 
1 T 
M M
minimize − log det z i ai e − λ (log (z i ) + log (1 − z i ))
z∈R M τ i=1 i=1
(24)
subject to 1T z = K
0 ≤ z i ≤ 1, i = 1, . . . , M.
18 P. Seshadri et al.

where the positive constant λ is used to control the quality of the approximation.
Newton’s approach has complexity O(m 3 ) with the greatest cost arising from the
Cholesky factorization when computing the inverse of the Hessian [38]. The linear
constraint is solved using standard KKT conditions as detailed in p. 525 of [10].
In practice this algorithm requires roughly 10–20 iterations and yields surprisingly
good results for finding suitable quadrature points.

Padua points via Convex optimization: It is difficult to select points suitable


for interpolation with total order polynomials, that are unisolvent—a condition
where the points guarantee a unique interpolant [67]. One such group of points
that does admit unisolvency are the famous Padua points. For a positive integer
N , these points are given by (ζm(1) , ζm(2) ) ∈ [−1, 1]2 where
⎧  
π (m − 1) ⎨ cos π(2k−1) m odd
ζm(1) = cos , ζm(2) =  N −1  (25)
N ⎩ cos π(2k−2) m even
N −1

and 1 ≤ m ≤ N + 1, 1 ≤ k ≤ 1 + N /2 [12]. The Padua points have a provably


minimal growth rate of O(log 2 N ) of the Lebesgue constant, far lower than
Morrow-Patterson or the Extended Morrow-Patterson points [5]. Two other
characterizations may also be used to determine these points; they are formed
by the intersection of certain Lissajous curves and the boundary of [−1, 1]2
or alternatively, every other point from an (N + 1) × (N + 2) tensor product
Chebyshev grid [6, 8].
As an example, consider the case where N = 4 resulting in a 30-point
Chebyshev tensor grid and a total order basis where the highest order is 4.
Figure 8a plots the corresponding gram matrix G = AT A. As expected the
quadrature rule can integrate all polynomials except for the one corresponding
to the last row, i.e., ψ (4,0) , whose integrand has an order of 8 along the first
direction ζ1 , beyond the degree of exactness of the 5 points. What is fascinating
is that when these points are subsampled one can get a subsampled Gram matrix
T
i.e., Âz Âz to have the same degree of exactness, as illustrated in Fig. 8b.
To obtain this result, the aforementioned convex optimization via Newton’s
method was used on A, yielding the Padua points—i.e., every alternate point
from the 30-point Chebyshev tensor grid.
Comparing execution time: In our numerical experiments on some of the
aforementioned optimization strategies, we have alluded to the operational
complexity. We make an obvious remark here, that as the both the polyno-
mial degree and the dimension increases, the computing time rises. Non-linear
algebra approaches such as [29] and the Newton approach presented here, have
other tunable parameters that can either add to, or decrease computational run
time.
Quadrature Strategies for Constructing Polynomial Approximations 19

(a) (b)

(c)

Fig. 8 The Gram matrix associated with Chebyshev tensor product grid with 4 × 5 = 30 points
and a total order basis with maximum degree of 4 in (a). The subsampled Gram matrix via convex
optimization in (b) and a comparison of the samples and subsamples in (c)

Figure 9 plots the running times for d = 3 and m = n when subsampling


from grid of Chebyshev points—where the number of points is given by
the (maximum total order + 1)d —using the different optimization strategies.
These experiments were carried out on a 3.1 GHz i7 Macbook Pro with 16 GB
of RAM. For completeness, a summary of the operational complexity of these
techniques is provided in Table 2. The condition numbers of the matrices
obtained from QR, LU and the SVD approach were generally lower (similar
order of magnitude) than those obtained from the other two techniques.
20 P. Seshadri et al.

Fig. 9 Representative computing times for the different optimization strategies for m = n and
d = 3 using Chebyshev samples and a total order basis

Table 2 Summary of the operational complexity of some of the optimization strategies


Optimization strategy Complexity
   
SVD-based subset selection O nm 2 + O nm 2
 2
QR column pivoting O nm
 
LU row pivoting O m2
 
Newton’s method O n3
 
Frobenius norm optimization (Ghili and O dnm 2
Iaccarino [29])

3.3 Moment-Based Optimization Strategies

To motivate this section, consider the integration property of orthogonal polynomials,


highlighted in (5). In the univariate case, one can write

Pw = e
  (26)
where P(i, j) = ψi ζ j , w(i) = ωi , and eT = [1, 0, . . . , 0] .

Assuming P ∈ Rm×m where one uses the first m Gauss-Legendre points in ζ j and
the first (m − 1) order Legendre polynomials in ψi , then the solution w for the
above linear set of equations will yield the first m Gauss-Legendre weights. In the
case where the points are not from a known quadrature rule—i.e., if they are from
a random distribution—then one has to ensure that the weights are positive via a
constraint.
Quadrature Strategies for Constructing Polynomial Approximations 21

Instead of working with matrices and optimizing for the objectives in Table 1,
one can frame an optimization problem centered on the computation of moments
where one optimizes over the space of quadrature weights (non-negative). This
moment-based approach for finding quadrature points and weights is utilized in
Keshavarzzadeh et al. [40] where the authors solve a relaxed version of this con-
straint linear system by minimizing Pw − e 2 . In Ryu and Boyd [53], the authors
present numerical quadrature as a solution to the infinite-dimensional linear program

minimize
m
fT v
v∈R
(27)
subject to pTj v = ci , where i = 1, . . . , n.
 
 f ∈ R are given by f (i) = f ζ i , and p j ∈ R has compo-
m m
Here components of
nents p j (i) = ψ j ζ i ; the optimization variable v (i) = ωi represents the quadra-
ture weights. The constants ci in the equality constraints are determined analytically,
as they involve integrating a known polynomial over the support of f . The problem
can be interpreted as a weighted l1 optimization problem, as we require v to have as
many zeros as possible and yet satisfy the above constraints. As this problem is NP-
hard, Ryu and Boyd propose a two-stage approach to solve it; one for generating an
initial condition and another for optimizing over v. Their approach has been recently
adapted in Jakeman and Narayan [37] who propose least absolute shrinkage and
selection operator (LASSO) for finding the initial condition. They then proceed to
solve the optimization using a gradient-based nonlinear least squares optimizer. Their
results are extremely promising—numerical experiments using their technique show
orders of magnitude improvement in convergence compared to tensor and sparse grid
rules.

4 Concluding Remarks and the Future

In this paper, we provided an overview of strategies for finding quadrature points


using ideas from polynomial least squares. Although we have sought to keep our
review as detailed as possible, readers will forgive us for omitting various tech-
niques. For example, we did not discuss optimal design of experiment based sam-
ples, although we point the interested reader to the review offered in [34]; for convex
relaxations of the various optimal design of experiment problems we refer the reader
to Sect. 7.5.2 of Boyd and Vandenberghe [10]. In addition, we have also highlighted
a new convex optimization strategy that uses Newton’s method for finding the best
subsamples by maximizing the volume of the confidence ellipsoid associated with
the Vandermonde-type matrix.
So whats next? Based on our review we offer a glimpse of potential future areas
of research that could prove to be fruitful:
Another random document with
no related content on Scribd:
Annikki häntä lähtövalmistuksissa: lämmittää veljelleen mainion
kylvyn ja kantaa hänelle päälle pantaviksi parhaat juhlavaatteet, jotta
Ilmarinen ainakin »ulkonaisen ihmisen» puolesta voisi menestyksellä
kosijana esiintyä. Vireää Annikki-siskoaan sai siis Ilmarinen
pääasiassa kiittää siitä, että tosiaan joutui tielle ja voitti Pohjan
neidon. Hänessä on Kalevala luonut perin herttaisen kuvan veljensä
onnea valvovasta sisaresta.

Annikin virkkua sukua on »Pohjan piika pikkarainen, joka jo aikoja


ennen auringon nousua, »kukonki kurahtamatta» ennättää toimitella
paljon talousaskareita. Hänpä se keksii aamulla varhain
Väinämöisenkin Pohjolan rannalla itkeä juorottamassa ja toimittaa
siitä heti tiedon Louhelle. Hän se myös ketteränä ja nopsana
toimittaa Louhen lukemattomat hääkutsut perille. Samanlainen nöyrä
ja vikkelä tyttö on kainon Marjatan »pienin piika» Piltti, joka »utuna
ulos menevi, savuna pihalle saapi» etsimään Marjatta raukalle
kylältä kylpyä, kun ankara äiti ja isä, luullen tyttärensä joutuneen
huonoille jäljille, sen häneltä kotona kiroten kieltävät.

Kalevalan hienoin ja naisellisin naiskuva on epäilemättä


Joukahaisen nuori sisar Aino, joka tietämättään, tahtomattaan
luvataan vanhalle Väinämöiselle. Oman kainon naissydämen nuori
iemmenkaipuu ja valintavapaus joutuu siten ankaraan ristiriitaan
äidin tahdon ja lapsellisen kuuliaisuustunteen kanssa, ja siihen
ristiriitaan hentoinen Aino sortuu. Kuten Kullervossa miehen kuvaa
Kalevala Ainossa naisen, neitosen, traagillista kohtaloa. Elämän ja
kohtalon myrskyt musertavat Kullervon, miehen ja sankarin; Ainon
tuhoavat oman sydämen herkkätuntoiset ristiriidat.

Kun Aino saa tietää että veli on luvannut hänet »Väinämöiselle


varaksi» ja näkee äitinsä siitä riemastuvan, koskee se kipeästi hänen
herkkään mieleensä. Lapsen velvollisuus vaatisi tottelemaan äitiä,
mutta toisella puolella on oman sydämen epäävä ääni, joka ei voi
sallia, että neitoa vain kauppatavarana pidetään, neidon itsensä
mieltä kysymättä. Siitä johtuu Ainon ajatuksiin auttamaton ristiriita,
joka ne lopulta vallan samentaa. Kun sitten Väinämöinen lehdossa
tapaa hänet ja kohtelee häntä kuin varmaa omaisuuttaan, heittää
hän heti maahan Väinämöisen ihailemat korunsa, pitäen niitä siten
juurikuin saastutettuina, ja rientää itkien kotiin. Muille hän ei tahdo
ilmaista korujensa katoamisen todellista syytä; vasta äidille, ainoalle
uskotulle näin arassa asiassa, hän kertoo Wäinämöisen rohkeat
kosiskelut. Hyvää tarkoittava, mutta lyhytnäköinen äiti lohduttelee
Ainoa parhaansa mukaan ja käskee hänen kadotettujen sijaan
pukemaan ylleen äidin säästämät kalliit korut, luullen Ainon niistä
lohtua saavan. Mutta turhaan! Ainon neitseellisen sydämen
sopusointu on särkynyt; itku ja valitus vain on hänen lohduttajansa.
»Mieli ei tervoa parempi, syän ei syttä valkeampi», hän sanoo
itsestään. Kun äiti vihdoin tarkemmin tiedustelee tuon jatkuvan itkun
syytä, silloin Aino vasta suoraan sanoo katkeran surunsa johtuvan
siitä, että äiti oli luvannut ja käskenyt hänet, hänen mieltään
kuulematta, »vanhalle varaksi, ikäpuolelle iloksi». Parempi muka olisi
ollut käskeä hänet suorastaan »alle aaltojen syvien sisareksi
Siikasille». Näin Ainon mieli aivankuin vaistomaisesti vetää häntä
veteen — rauhaan ja vapauteen.

Tuska ja suru vie häneltä mielen tasapainon ja itsensä


määräämisvallan. Hän toimii nyt aivan koneellisesti, vaistomaisesti.
Hän menee aittaan, pukee yllensä äidin tarjoamat korut ja lähtee
sitten, juurikuin kuololle vihittynä ja koristettuna, harhailemaan
tarkoituksettomasti pitkin saloja. Kuoleman vapauttava ajatus täyttää
hänen sumenneen mielensä; veden väljät ja vapaat tilat
houkuttelevat Ainoa sinne suruansa unhottamaan. Ja niin
vastustamattomaksi käy tämä houkutus, että Aino, nähdessään
vedenneitojen vapaina ja iloisina kisailevan läikkyvillä laineilla,
rientää suoraan heidän huolettomaan joukkoonsa veden viileään
syliin mieltään viihdyttämään ja sinne hukkuu. Se ei ollut pelkkä
tapaturma; se oli johdonmukainen tulos Aino raukan hennon ja
tunteellisen sydämen ristiriidoista. Rauhaton, maailman kanssa
epäsointuun joutunut sydän löytää levon kuolon viileässä sylissä,
joka hänelle aivankuin itsestään suurena ja sovittavana avautuu.

Näin olemmekin tarkastelleet Kalevalan kaikki huomattavammat


naiskuvat. Näihin voitaisiin lisätä vielä esim. rehevä Osmotar, »oluen
seppä», tuo taitava ja toimekas emännöitsijä ja oivallisen oluen
valmistaja, joka myöskin Pohjan neitiä perinpohjin neuvoo ja
opastaa, kuinka hänen tulee miehelässä käyttäytyä; »ruma
Ruotuksen emäntä», joka ylpeänä kädet puuskassa »liehoi sillan
liitoksella, laahoi keskilattialla» ja ynseästi tiuskuu avunanojalle;
lopuksi onneton Kullervon sisar, joka sukunsa surkean kohtalon
vainoamana ensin eksyy metsään, kotiin osaamatta, sitten Kullervon
korujen ja kultien sokaisemana tietämättään yhtyy veljeensä ja
vihdoin, saatuaan tietää asian oikean laidan, sovittaa kauhean
rikoksensa hyppäämällä kuohuvaan koskeen, jossa »löyti turvan
Tuonelassa, armon aaltojen seassa».

Mutta näiden ihmisellisten naiskuvien lisäksi tuo Kalevala vielä


eteemme lukemattoman joukon yliluonnollisia naisolentoja, jotka
monella eri tavalla joutuvat kosketuksiin ihmisten kanssa. Meillä on
Kalevalassa määrättömästi luonnottaria, ilmattaria, sotkottaria,
vedenneitoja, tuulettaria, puuttaria, metsänneitoja ja sinipiikoja,
manattaria j.n.e. On siellä Vellamo, »veden emäntä», on Mielikki,
»Tapiolan tarkka vaimo», on Tellervo, Tuulikki ja muut »utupaidat,
hienohelmat» metsänjumalan Tapion kepeät tyttäret — niin, koko
luonto on täynnä kaikenlaisia hengettäriä ja haltiattaria sitä
elävöittämässä ja somistamassa.

Lopuksi emme saa unhottaa Kalevalan ihania häärunoja, joissa


naisilla on niin tärkeä sija. Ne tosin eivät vie Kalevalan varsinaista
toimintaa eteenpäin, mutta niiden puhtaasti lyyrillinen, idyllinen
kauneus on verraton. Kaikki perhe- ja avioelämän suhteet tuodaan
niissä havainnollisesti esiin. Aluksi Pohjolan emäntä itse kuvailee
tyttärelleen, kuinka tällä oli ollut huolettomat päivät kotona kuin
perhosella ja kedon kukkasella, mutta kuinka miehelässä kaikki on
toisin; »toisin siellä torvet soivat, toisin ukset ulvaisevat, et osaa
ovissa käy'ä», hän sanoo morsiamelle, joka siitä tulee ensin kovin
alakuloiseksi ja valittaa mielensä olevan »kuin syksyinen yö pimeä».
Toiset vaimot vielä lisäävät morsiamen huolta ja pelkoa, kuvailemalla
appelan oloja vieläkin mustemmin värein, kun näet miniän niskoille
siellä muka talon kaikki työt lykätään ja vain moitteita ja toria
kiitokseksi annetaan. Miniä saa alkaa seuraavan päivän toimet jo
edellisenä iltana pitämällä huolta siitä, ettei hiilos liedessä yöllä
pääse sammumaan, jotta siitä aamulla helposti saa tulen. Kukon
ensi kerran laulaessa hänen tulee nousta ja alkaa päivän työt, joita
sitten jatkuu yhtä mittaa hetkisenkään levotta myöhään iltaan. Ensin
on tehtävä tuli, sitten hoidettava karja, sitten siivottava tupa j.n.e.
loppumattomiin. Miniän huolena on käsikivellä jauhaminen, veden
kanto, puiden tuonti tupaan, taikinan teko, astiain peso, uunin
lämmitys, leipominen, saunan lämmitys ja saunoittaminen, kehruu,
kudonta, oluen pano j.n.e. Hän raataa kuin orja ja saa sittenkin
palkakseen »apen luista leukaluuta, anopin kivistä kieltä, ky'yn
kylmiä sanoja, na'on niskan nakkeloita». — Näin kuvataan miniän
asema vaikeaksi, ja todellakin monissa tapauksissa se sellaista
lienee ollutkin. Mutta toiselta puolelta morsianta myös lohdutellaan ja
kehutaan, kuinka hän oivallisen sulhon hoivissa vasta tuntee itsensä
täysarvoiseksi ja onnelliseksi ja kuinka hän itse on tämän onnen
ansainnut kauneudellaan, hyvillä tavoillaan, ahkeruudellaan ja
taloustaidoillaan, joista maine on kauas kuulunut. — Erittäin kauniit
ovat myös ne jäähyväiset, jotka morsian lähtiessään lausuu
vanhemmilleen, kiittäen heitä kaikesta hyvästä, sisaruksilleen ja
koko kodilleen elukoineen, puineen, tanhuoineen. Niissä ilmenee
hienosti rakkaus vanhempia ja lapsuudenkotaa kohtaan.

Paljon voisi häärunoista samoinkuin muualtakin Kalevalasta


poimia hienoja, sattuvia piirteitä, jotka elävästi kuvailevat naista
neitona, sisarena, morsiamena, vaimona ja äitinä, mutta tila ei salli
meidän laveammalta niihin syventyä. Ja vaillinaiseksi tällainen
poiminta aina jäisi; vasta Kalevalasta itsestään niiden kauneuden ja
runsauden oppii täysin tajuamaan.
SUOMEN LUONTO KALEVALASSA

Esittänyt V. Tarkiainen

Todellisuus ja satu kilpailevat keskenään Kalevalassa. Väliin on


todellisuus voitolla, mutta useammin satu. Tuskin lienee toista
eeposta, ainakaan ei länsimaissa syntynyttä, jossa mielikuvitus löisi
leikkiään niin esteettömän vapaasti runouden pitkillä pihoilla kuin
Kalevalan lauluissa ja loitsuissa. Tämä seikka antaa koko
»kansalliseepoksellemme» omituisen lapsellisen viehätyksen, mutta
samalla riistää siltä sen mielenkiinnon, minkä todellisempien olojen
ja todellisempien tekojen kuvaukset voivat synnyttää lukijassa. Ettei
Kalevala kuitenkaan ole aivan vailla miehekästä ryhtiä ja elävästi
havaittuja luonteita, sen todistavat esim. Kullervo-runot.
Todellisuuspiirteet ovat ainakin kuteena, ellei loimena, tässä sadun
monikirjavassa kankaassa. — Siitä saamme käsityksen
katsellessamme esim. Kalevalan luonnonkuvausta.

Vaikka suomalainen runotar antaa Kalevalan suurten sankarien


usein matkustella ilmojen teitä »tuulen purressa, ahavan venosessa»
semmoisella helppoudella ja nopeudella, että se saattaa herättää
kateutta yksinpä meidän aikamme ilmapurjehtijoissa, ja vaikka sadun
kultakuut ja valheauringot kumottavat välistä sen kuusten latvoissa
niin lumoavalla loisteella, että suurkaupunkiemme sähkövalot niiden
rinnalla himmenevät säteettömiksi tuohuksiksi, tuntuu todellisuuden
maaperä sentään useimmissa paikoissa jalkain alla ja todelliset
taivaankappaleet valaisevat tavallisesti henkilöiden liikkeitä. Eikä
lukijan tarvitse kovinkaan pinnistää tarkkaavaisuuttaan, jotta hänen
silmäänsä piirtyisi Kalevalan runoista Suomenmaan kuva
suhteellisesti oikeassa muodossaan.

Johtaahan heti ensimäinen runo mielemme luontevasti »näille


raukoille rajoille, poloisille pohjanmaille», missä naapurit harvoin
tapaavat toinen toisensa ja missä ilmanalan ankaruus on värittänyt
soiton sekä laulun surunsoivaksi. Tämän harvaan asutun, kylmän ja
köyhän maan rannoilla loiskii meri aukeine ulapoineen ja korkeine
kuohuineen, joiden harjalla aikojen alussa keinui tarumainen Ilman
impi ja myöhemmin moni retkeilevä laiva tai vene. Meri ei ole
kuitenkaan antanut runoudellemme aiheita ja kuvia niin paljon kuin
esim. kreikkalaisten Odysseialle. Siitä on huomattu vain
pääominaisuudet: rannaton avaruus, sininen väri ja lakkapäiset
laineet, keskellä joku luoto ja saari. Kalevalan runous on etupäässä
sisämaan runoutta. Se heijastaa sisämaisia piirteitä, etenkin Suomen
tuhatjärvisyyttä. Kaikkialla soudetaan järvien soiluvia selkiä,
kaikkialla nähdään taloja lahdenpoukamissa, kaikkialla
pyykinpesijöitä »nenässä utuisen niemen, päässä saaren
terhenisen», kaikkialla kalastajoita nuotalla, verkolla tai ongella.
Järvestä järveen virtailee jokia, jotka kelpaavat liikeväyliksi, vaikka
niitä usein haittaavat »tuliset kosket» salakareineen ja muine
vaaroineen. Runo tietää mainita nimeltäkin eräitä kuuluisimpia
koskia:
»Kolme on koskea kovoa: Hämehess' on Hälläpyörä,
Kaatrakoski Karjalassa, ei ole Vuoksen voittanutta, ylikäynyttä
Imatran.»

Mutta kaikista julmin on kuitenkin ankara Rutjan koski, jonka


nieluun

»puut päin putoovat, perin vierivät petäjät, tyvin syösten


suuret hongat, latvoin lakkapäät petäjät.»

Pohjolan kuuluisan talon luona näyttää myös olevan virta tai laaja
salmi. Ja Tuonelan synkkää saarta ympäröi mustavetinen
kammottava joki, jossa pitkäkaulaiset joutsenet joluvat ja suuret
suomuhauit uiskentelevat, ja jonka yli ei ole hyvä inehmon elävänä
kulkea. Näiden jokien lisäksi tekaisee runo jonkun vielä
ihmeellisemmän satuvirran esim. Vipusen vatsaan tai — äidin
kyyneleistä. Ainon äiti se 4:essä runossa itkee niin suunnattomasti,
että hänen kyyneleistään kasvaa kolme virtaa saarineen ja
suvantoineen, ja niiden vieremiltä kaikuu käen kukunta, näin luoden
oikean suomalaisen kevättunnelman.

Sisämaiset näköalat kuvastuvat läpi runoelman sangen


vaihtelevina »kuusikkokumpuineen», »kanervikkokankaineen»,
»auhtoine ahoineen», »marjaisine mäkineen»,
»vesakkonotkoineen», »synkkine saloineen», ja suunnattomine
soineen, joiden keskellä kohoaa siellä täällä vain »märkä mätäs»,
karpaloiden koto. Kevätaurinko saa näillä Pohjan pimeillä perillä
aikaan suuremmat ihmeet kuin konsanaan etelän ikuisen kesän
mailla.

Sen säteiden hellittäessä nousee


»lehti puuhun, ruoho maahan, linnut puuhun laulamahan,
rastahat iloitsemahan, käki päälle kukkumahan.»

Paimen ajaa silloin karjansa laitumelle, ilon raikuessa:

»Lampahat meni mäkeä, vuonat vuoren kukkujata, paimen


asteli ahoa, lepikköä leyhytteli, käen kullan kukkuessa,
hopeaisen hoilatessa.»

Ja keskikesän aikana seisoo koko metsä jonkun hetken


ihanimmassa kullassaan, säteilevänä ja tuoksua täynnä:

»Kuuna paistoi kuusen oksat, päivänä petäjän latvat, metsä


haiskahti me'elle, simalle salo sininen, ahovieret viertehelle,
suovieret sulalle voille.»

Kesäisenä näkynä kangastaa Kalevalassa monet


lapsuudenaikaiset »marjamäet» ja paimenkukkulat sekä esim. se
laaja, nurmikenttäinen Saari, johon Lemminkäinen nuoruutensa
päivinä purjehtii kuuluisaa Kyllikkiä, »saaren kukkaa», kosimaan.
Sen salot kaikuvat kesäisin — niin melkein näyttää — aamusta iltaan
nuorten karkeloista; työnteosta ei ole puhettakaan. Siellä vain
leikitään ja karkeloidaan erityisellä kisakedolla:

»Neitoset kisaelevi, kaunokaiset karkelevi mannerpuolella


saloa, kaunihilla kankahalla.»

Kaukana pohjoisessa häämöttävät tämän kesäisen maiseman


vastakohtana Pohjan pitkät pimeät perukat, »kylmät kylät»
kivimäkineen, »vaskisine vaaroineen», »kuumottavine portteineen»,
aittoineen ja pihalla haukkuvina koirineen. Siellä
hyyss' on virrat, jäässä järvet, ilmat kaikki iljenessä, hyiset
hyppivät jänikset, jäiset karhut karkelevat keskellä lumimäkeä,
lumivaaran liepehellä, hyiset joutsenet joluvat, jäiset sorsat
soutelevat keskellä lumijokea, jäisen kosken korvaksella.»

Näille maille pakenee Lemminkäisen edellä Hiiden hirvi. Näitä


lumitunturien rinteitä, »kuss'ei kuuta, aurinkoa, eikä päiveä iässä»,
matkailee Lemminkäinen kerran ruskealla Hiiden ruunalla:

»Veti virkkua vitsalla, paiskasi pajun vesalla, ajoi matkoa


vähäisen, tuuritteli tunturia, pohjoispuolella mäkeä,
lumivaaran kukkuloa.»

Kuinka säät vaihtelevat Kalevalan kankahilla, siitä antavat runot


usein eläviä kuvauksia. Talvella ovat järvet ja merenlahdet jäässä, ja
on niin kova pakkanen, että Lemminkäinen uhkaa jäätyä
matkatoverinsa Tieran kanssa (runossa 30 säkeet 143—180) ihan
kuoliaaksi. Välistä sataa lunta leppeästi:

»Laskip' Ukko uutta lunta, viskoi hienoista vitiä, se katti


kanervan varret, peitti maalta marjan varret.»

Välistä taas kauheita rakeita:

»Satoi hyytä, satoi jäätä, satoi rauaista raetta, pienemmät


hevosen päätä, päätä ihmisen isommat.»

Välistä sakeaa sumua:

»Ututyttö, neiti terhen, u'un huokuvi merelle, sumun


ilmahan sukesi» j.n.e.

Välistä raivoaa kauhea myrsky:


»Kovin läikkyi länsituuli, luoetuuli tuikutteli, enemmän
etelätuuli, itä inkui ilkeästi, kauheasti kaakko karjui, pohjonen
kovin porasi. Tuuli puut lehettömäksi, havupuut havuttomaksi,
kanervat kukattomaksi heinät helpehettömäksi; nosti mustia
muria päälle selvien vesien.»

Toisin ajoin taas on ilma tyyni ja selkeä, etenkin auringonnousun


tai -laskun tienoissa:

»Päivänäpä kolmantena aletessa aurinkoisen jo sepon koti


näkyvi, luvat ilman tuulottavi, noki nousi nuoraisena, savu
paksuna pakeni, tuprusi savu tuvasta, ylös pilvihin kohosi.»

Jos semmoisena päivänä nousee korkealle mäelle, aukenevat


pitkät näköalat selvinä kulkijan eteen. Esim. kun Lemminkäinen on
Hiiden hirven hiihdännässä, niin hän

»hiihti päivän, hiihti toisen, jo päivänä kolmantena meni


suurelle mäelle, nousi suurelle kivelle, loi silmänsä
luotehesen, poikki soien pohjoisehen; Tapion talot näkyivät,
ukset kulta kuumottivat poikki suosta, pohjoisesta, alta
vaaran, varvikosta.»

Tai kun rannalla pyykinpesussa, oleva Annikki silmäilee ulapalle:

»Katselevi, kääntelevi ympäri ihalat ilmat, päänsä päälle


taivahalle, rannatse meriä myöten; ylähällä päivä paistoi,
alahalla aallot välkkyi.»

Tämän tapaiset laajat maisemakuvat, jotka taiderunouteemme


koteutti Aleksis Kivi »Seitsemässä veljeksessään», eivät ole
harvinaisia Kalevalassa. Ihanimpana esiintyy kuitenkin suomalainen
maisemasävy semmoisissa kohdissa, joissa luonto on vain sisäisten
mielialojen kuvastimena. Esim. seuraavissa lyyrillisissä säkeissä,
jotka ovat Kalevalan kauneimpia:

»Niin on mieli miekkoisien, autuaallisten ajatus, kuin


keväinen päivännousu, kevät-aamun aurinkoinen; mitenkä
minunki mieli, minun synkeä sisuni? On kuin laaka lammin
ranta, kuin pimeä pilven ranta, kuin syksyinen yö pimeä,
talvinen on päivä musta, viel' on mustempi sitäki, synkeämpi
syksy-yötä.»

*****

Millainen on sitten eläinkunta, joka kansoittaa näitä Kalevalaisia


maisemia? Millainen kasvisto, joka antaa niille värin ja sävyn? Tuiki
tuttua ja kotoista, jommoisena se on piirtynyt luonnonlapsen
tarkkaan silmään.

Jalan neljän liikkuvista metsien asukkaista on Kalevalassa


etumaisimpana karhu. Salojen kansa seurustelee sen kanssa
samalla tuttavallisesti sekä arvonantavasti, sillä se tietää otsolla
olevan »yhdeksän miehen voiman ja yhden miehen mielen». Se
tuntee sen ulkomuodon ja merkitsee sen tärkeimmät piirteet
täsmällisesti:

»lyhyt jalka, lysmä polvi, tasakärsä talleroinen, pää levyt,


nenä nykerä, karva kaunis röyhetyinen.»

Se nimittää sitä »koverakouraksi», »karvalallukseksi»,


»karvaturvaksi» ja kuvailee sen elämäntapoja todenmukaisesti:
kuinka se makailee talvet havumajassaan
»kengällä korean kuusen, katajikon kainalossa»,

kuinka se kesillä liikkuu ylt'ympäri metsiä »villakuontalona» taikka


»pellavaskupona», syöpi sieniä, murtaa muurahaiskekoja, etsii
»juuria punaisen putken, Metsolan mesipaloja» — ellei ole tottunut
liharuokaan ja ruvennut rumille töille, jolloin se välistä ärsytettynä ja
ähmissään kaatelee koivunpökkelöitä, vääntelee vesihakoja, määhkii
marjamättähiä. Kansa on tuhlannut tälle jalolle otukselle, jonka vihaa
se on aina peljännyt, mitä kauneimpia hyväilynimiä ja mainesanoja:
»mesikämmen», »mesikki», »metsän omena», »metsän kaunis»,
»salon kulta», »salon armas», »aika poika», »pyylypoika» (=
pesässä asuva poika), »vanha mies», »verkanuttu», »verkahousu»,
»mustasukka», »käpeä-kenkä», »rahakarva», »rahasaari» j.n.e. Sitä
lepytellään erityisillä luvuilla keväällä karjaa laitumelle laskettaessa
ja varoitellaan elämään sovinnossa. Ja jos se on taistelussa
talvisaikaan saatu kaadetuksi, kohdellaan sitä yhä kunnioittaen ja
hellävaroen. Metsästä tuotaessa se otetaan vastaan juhlallisilla
menoilla, valituin lauluin ja lauseparsin, kannetaan juhlasaatossa
pirttiin, jossa sitten komeat peijaiset sen kunniaksi pidetään ja
vainajan korkeita sukujuuria muistellaan, ennenkuin ryhdytään
karkeampiin toimiin: nylkemiseen ja lihan paloittelemiseen. Näissä
peijaismenoissa, jotka häidenvieton ohella ovat Kalevalan suurin
juhlatilaisuus, ilmenee karjalaisen heimon keskuudessa vallinnut,
miltei uskonnollinen karhunpalvelus, samalla kuin niiden sekä
häärunojen perinnäisissä vuorolauluissa ja toiminnoissa piilee
suomalaisen draaman ensi itu. Tämmöiseen maineeseen on karhu
voinut kohota vain semmoisilla seuduilla, missä ihmisen on ollut
vaikea huonoilla aseillaan puolustaa asemaansa tätä pelättyä
vihollista vastaan.
Muut metsänpedot, kuten susi, ilves ja kettu, ovat Kalevalassa
karhuun verraton aivan syrjäasemassa. Sutta (eli hukkaa) pelkäävät
vain naiset talviöinä pihamailla liikkuessaan. Repo on huomattu
vaaralliseksi vain hanhilaumalle. Nämä eläimet ovat kaikki haluttua
riistaa kalliin nahkansa vuoksi, niinkuin myös »näätä kultarinta»,
»talvinen jänis» sekä oksilla hyppelevä orava. Näädästä ja oravasta
on sitäpaitsi pantu merkille liikkeiden sukkeluus, jäniksestä juoksun
nopeus, jonka vuoksi tämä »ristisuu», »pitkäkorva», »kehräsilmä»,
»vääräsääri» kelpaa m.m. sanansaattajaksi Ainon kuoltua. Vikkelin
eläimistä on kuitenkin kärppä (l. portimo), jonka liikkeisiin usein
verrataan sukkulan sujahtelemista taitavan kutojan käsissä:

»niin sen suihki sukkulainen kuin on portimo pinossa (kuin


kärppä kiven kolossa)».

Vesissä asustava saukko ja hylje, joka »luotansa lohia syöpi,


sivultansa Siikasia», Kalevalan laulajille kuten pienimmät maan
matoset, tai myyrät, hiiret, kusiaiset (mauriaiset). Onpa joukkoon
sentään päässyt joku eläin, joka osoittaa laajempaa
luonnontuntemusta kuin Suomenmaan rajojen sisällä välittömästi on
mahdollista. Semmoisia on eteläisempiin seutuihin viittava
»kamelivarsa» ja siili sekä Jäämeren läheisyyttä todistavat mursut ja
valaat, joista viimemainittu on Suomen kansan kuvituksessa (kuten
niin monen muunkin) kasvanut miehiä nieleväksi hirviöksi. —
Lapinmaan peura sekä usein sen toisintona esiintyvä hirvi ei ole
Kalevalassa saanut kovin suurta huomiota osakseen. Tosin
kerrotaan (13—14 runoissa) laajasti, kuinka Lemminkäinen
ansiotöikseen hiihtää Hiiden hirven »silosorkan» »Hiien peltojen
periltä, Lapin lasten tanterilta», mutta tästä eläimestä ei saa muuta
todellista kuvaa kuin sen, että se juoksee nopeasti ja on kovin äksy
potkimaan. Tämä onkin luonnollista, sillä se ei ole tavallinen
metsänotus, vaan mielikuvituksen luoma outo kuvatus, kyhätty
kokoon mitä erilaisimmista aineksista:

»Hiiet hirveä rakenti, juuttahat poroa laati, pään panevi


pökkelöstä, sarvet raian haarukasta, jalat rannan raippasista,
sääret suolta seipähistä, selän aian aiaksesta, suonet kuivista
kuloista. silmät lammin pulpukoista, korvat lammin
lumpehista, ketun kuusen koskuesta, muun lihan lahosta
puusta.»

Samanlaisen mahdottoman kummitusmuodon on saanut myöskin


se kokko, joksi Pohjan akka muuttaiksen Sammon ryöstäjiä takaa
ajaessaan:

»Jopa muuksi muutaltihe, tohti toisiksi ruveta: otti viisi


viikatetta, kuusi kuokan kuolioa, nepä kynsiksi kyhäsi,
kohenteli kouriksensa; puolen purtta särkynyttä, senpä
allensa asetti, laiat siiviksi sivalti, peräpuikon purstuksensa,
sata miestä siiven alle, tuhat, purston tutkamehen.»

Ja tästä kuten muista Kalevalan kokoista, vaakalinnuista ja


lokeista käytetään runoissa niin suunnattomia mittasuhteita, että
ajatus aivan tyrmistyy:

»Ei ole kokko suuren suuri, eikä kokko pienen pieni: yksi
siipi vettä viisti, toinen taivasta lakasi, pursto merta pyyhätteli,
nokka luotoja lotasi.»

tai:

»Suu sen on satoa syltä, kita kuusi koskellista, kieli kuutta


keihäsvartta, kynnet viittä viikatetta.»
Muut linnut sensijaan ovat pysyneet luonnollisuuden rajoissa: pyyt,
teeret, korpit, kuret, kajavat, tikat, kiurut, pääskyt, pulmuset, sotkat,
joutsenet, allit, kyntörastaat, käet j.n.e. Ovatpa niistä monet kuvatut
erinomaisen tarkasti ja havainnollisesti. Joutsenesta, »pyhästä
linnusta», esim. mainitaan, että se uiskentelee joluen jokivesissä ja
pesii ylhäällä pohjoisessa »suurimmalla suon selällä, tuiman tunturin
laella». Hanhi on merkitty »kirjasiiveksi» ja »punasuuksi», sotka
»siniseksi» linnuksi, tikka puussa kapuavaksi, kiuru pilviin
katoavaksi, korppi keikkuvaksi ja varis vaakkuvaksi. Eloisin on kuva
lokista, joksi Ilmarinen loihtii ryöstämänsä morsiamen, nuoremman
Pohjan neitosista:

»Lauloi naisensa lokiksi luo'olle lokottamahan, veen karille


kaikkumahan, nenät nienten niukumahan, vastatuulet
vaapumahan. Nyt se lokkina lojuvi, kajavana kaakahtavi,
kiljuvi vesikivillä, kartioilla kaljahuvi.»

Kauneimman sijan lintujen joukossa on kuitenkin saanut käki. Se


on Suomen kansan varsinainen lempilintu, kevään lintu ja nuoruuden
lintu: »kultarinta», »hopearinta», »tinarinta», »hietarinta». Sen
yksitoikkoinen sointuva kukunta herättää vastakaikua kaikkien
sydämissä. Sille uskovat nuoret toiveensa ja vanhat huolensa. Siltä
odottavat neitoset tietoa sulhon saapumisesta ja muutkin onnea ja
rikkautta. Senvuoksi sitä suojellaan ja suositaan. Sille jätetään
kaskesmailla erityisiä kukuntapuita, joissa sen toivotaan kukkuvan
illoin, aamuin sekä keskipäivälläkin. Sen kukunnan kullasta taotaan
naulat kanteleeseen ja sen säveltahtiin sykähtelee sekä onnellisen
että onnettoman sydän. Käen kukunnan vaikutus on kuvattu 4:en
runon lopussa, jossa Ainon äiti tulkitsee kovaa kokeneen sydämensä
tunteet kauniilla sanoilla:
»Elköhön emo poloinen kauan kuunnelko käkeä; kun käki
kukahtelevi, niin syän sykähtelevi, itku silmähän tulevi, ve'et
poskelle valuvi, kyynärän ikä kuluvi, vaaksan varsi vanhenevi,
koko ruumis runnahtavi kuultua kevätkäkösen.»

Selvää on, että suomalaiset, joille lukemattomat järvet ja joet


tarjosivat mainion tilaisuuden kalastukseen, myös tunsivat hyvästi eri
kalalajit: »haleat» hauit, »sinervät» siiat, »kuleat» kuujat (järvilohet),
»kyrmyniskat» ahvenet, »kinaiset» kiiskit, »nuljaskaiset» mateet
sekä säret, säynäät, kuoreet, mujeet ja lohet. Tunsivatpa he niiden
elintavat ja kutuajatkin: »hauki hallalla kutevi, ahven arka,
kyrmyniska, sykysyt syvillä uipi, kesät kuivilla kutevi, rantasilla
rapsehtivi». Mutta taaskin on runossa tapahtunut, että yksi kala,
Tuonelan joen »suomuhauki», on kasvanut niin suureksi, ettei se
mahdu mihinkään todellisuuden kaavoihin:

»Ei ole hauki pienen pieni, eikä hauki suuren suuri: kieli
kahta kirvesvartta, hampahat haravan varren, kita kolmen
kosken verta, selkä seitsemän venehen.»

Eikä paljon pienempi liene ollut sekään jättiläishauki, jonka


selkään juuttuu koskessa samporetkeläisten vene ja jonka
leukaluusta Väinämöinen laittaa itselleen maankuulun kanteleen.

Vielä suurempi hirmu kuin Tuonelan suomuhauki on Pohjolan


porttia vartioiva käärme, arvatenkin samaa yhteistä alkujuurta kuin
ne jättiliskot ja käärmeet, joiden kanssa kaikkien maiden tarulliset
sankarit saavat voimiansa koetella. Se on kuvattu seuraavin sanoin:

»Käärme tiellä käänteleikse eessä portin poikkipuolin,


pitelämpi pirtin hirttä, paksumpi patsasta portin, sata silmeä
maolla, tuhat kieltä käärmehellä, silmät seulan suuruhiset,
kielet pitkät keihovartta, hampahat haravan varren, selkä
seitsemän venettä.»

Tarvitaan tietää synnyt syvät, ennenkuin tämmöinen hirviö


saadaan siirtymään tieltä syrjään. Niissä sanoissa, joilla
Lemminkäinen manaa sen matkoihinsa, kuvastuu kansan kauhu ja
inho käärmettä kohtaan. Helposti ymmärrettävä on myös, että
Tuonela, kaiken inhuuden ja onnettomuuden tyyssija, on täynnä
kyitä, käärmeinä; niin hyvin makuusijoilla kuin oluttuopeissa niitä
siellä matelee. Kansan usko on tehnyt kyykäärmeestä yksinpä
myrkyllisen nuolenkin, jolla sokea paimen ampuu Tuonelan joella
Lemminkäisen läpi maksan, kautta kainalon vasemman. Käärmeiden
paljoutta vähän viljellyillä seuduilla muuten todistaa »kyisen pellon»
kyntäminen, joka esiintyy Kalevalassa pari kertaa.

Niinkin pieniin eläimiin kuin ampiaisiin (»herhiläisiin»), mehiläisiin


ja »mustiin» muurahaisiin ulottuu kansanrunoilijain huomio
Kalevalassa. Varsinkin mehiläinen on tarkkaan kuvattu ja esiintyy
usein. Se näyttää olleen oikea lempilintu sekin, koska sille annetaan
semmoisia hyväilynimiä kuin »mehiläinen, meiän lintu,
metsänkukkien kuningas», »simasiipi», »sinisiipi». Ja se tekee
useampaan kertaan kauniita palveluksia ihmiselle: hakee
Lemminkäisen äidille voiteita taivaasta, mettä Osmottaren oluviin ja
Ilmarisen raudankarkaisu veteen.

Kotieläimistä on koira, hevonen ja lehmä tavallisimpia


Kalevalassa. Koira esiintyy niin hyvin talonvartijana (esim.
Pohjolassa) kuin metsänkävijän (Väinämöisen) ja matkamiehen
(Kullervon) toverina. Sen tuntomerkit »villahäntä», »rauankarva» ja
»pikkusilmäinen» viittaavat luultavasti sen lappalaisrotuisuuteen.
Samaan päätelmään johtaa myös humoristinen kuvaus haukkuvasta
Pohjolan koirasta:

»Aina haukkui linnan rakki, saaren vartio valitti, linnan lukki


luksutteli, perän peltohon sysäten, peni julma juhmutteli,
hännän kääten käppyrähän.»

Koira näyttää hyödyllisyydestään huolimatta olleen pikemmin


halveksittu kuin arvossa pidetty eläin (»lihan syöjä, luunpurija, veren
unelta vetäjä»), niinkuin osoittaa »koira» ja »rakki» nimien
käyttäminen haukkumasanoina. Hevonen (hepo, uve, ori) sensijaan
oli suuressa arvossa, varsinkin jos sattui olemaan »tulinen» juoksija.
Väriltään se oli »ruskea» tai »tulipunainen», kuten suomalaisrotuinen
tavallisesti on, toisinaan »liinaharja», »sukkajalka», »kuloharja» tai
»laukki». Sen raisua juoksua kuvataan usein eloisasti:

»Senpä tukka tulta tuiski,


harja suihkivi savua.»

Senvuoksi kelpasivat sen liikkeet vertauskohdaksi muullekin


nopealle vauhdille, esim. Vipusen laululle:

»Suu se syyteli sanoja, kieli laski lausehia, kuin on sälkö


sääriänsä, ratsu jalkoja jaloja.»

Joskus on hevonenkin saanut tarumaisen muodon, esim. se


ruskea Hiiden ori, jonka Lemminkäinen ottaa kiinni (14 runossa),
hevonen, jonka hengityksen lämpimässä Marjatta synnyttää
poikansa Tapiomäellä (50 runossa), sekä se kultavarsa, joka
tungeiksen Ilmarisen ahjosta (37 runossa). Kaikista merkillisin on
kuitenkin se »musta ruuna», jonka Lemminkäinen kerran
murheistaan laatii ja jonka selässä hän ratsastaa kotiin
onnistumattomalta sotaretkeltä. Lehmistä, joita lihan, voin ja maidon
antinsa vuoksi pidettiin paljon kalevalaisissa kodeissa, mainitaan
monet nimeltä (»Muurikki», »Mansikki», Puolukka», »Omena» j.n.e.)
sekä kuvaillaan niiden laitumelle laskemismenot, maidonsaaliin
rukoileminen, paimentaminen, lypsäminen sekä navetassa talvella
ruokkiminen. Ilmarisen ahjossa syntyvä »kultalehmä» on ainoa
epätodellinen ilmestys lehmien joukossa. Härkä sensijaan on
kasvanut joskus aivan mitattomaksi, mahdottomaksi. Sillä härällä,
jolla Sammon juuret maasta irti kynnetään, oli »syltä sarvet pitkät,
puolentoista turpa paksu». Ja vielä suurempi on se sonni, joka
teurastetaan Pohjolan hääruuiksi, sen kun

»Hämehessä häntä häilyi, pää keikkui Kemijoella, sata syltä


sarvet pitkät, puolta toista turpa paksu» j.n.e.

Muut kotieläimet: kissa, sika, lammas, vuohi, uuhi, kana ja kukko,


ovat säilyttäneet Kalevalan lauluissa luonnollisen kokonsa ja
muotonsa.

*****

Jos sitten siirrymme tarkastamaan Kalevalan kasvikuntaa, niin


huomaamme samanlaisen, miltei luonnontieteellisesti tarkan
käsityksen siinä ilmenevän. Ja tässäkin kohden pyrkii suomalaisten
runollinen mietiskely tunkeutumaan olioiden syntyyn ja historialliseen
alkuperään. Toisessa runossa esitetään Sampsa Pellervoinen
»maita kylvämässä, toukoja tikittämässä» ja annetaan yleiskuva
Suomen tavallisimmista puulajeista ja niiden kasvupaikoista.

»Mäet kylvi männiköiksi, kummut kylvi kuusikoiksi,


Noromaille koivut kylvi, lepät maille leyhkeille, tuomet kylvi
tuorehille, raiat maille raikkahille, kankahat kanervikoiksi

You might also like