Download as pdf or txt
Download as pdf or txt
You are on page 1of 69

Data Driven Strategies: Theory and

Applications 1st Edition Ricardo A.


Ramirez-Mendoza
Visit to download the full and correct content document:
https://ebookmeta.com/product/data-driven-strategies-theory-and-applications-1st-edi
tion-ricardo-a-ramirez-mendoza/
More products digital (pdf, epub, mobi) instant
download maybe you interests ...

Data Driven Smart Manufacturing Technologies and


Applications 1st Edition Weidong Li

https://ebookmeta.com/product/data-driven-smart-manufacturing-
technologies-and-applications-1st-edition-weidong-li/

Data-Driven Alexa Skills: Voice Access to Rich Data


Sources for Enterprise Applications 1st Edition Simon
A. Kingaby

https://ebookmeta.com/product/data-driven-alexa-skills-voice-
access-to-rich-data-sources-for-enterprise-applications-1st-
edition-simon-a-kingaby/

Optimal Control of Dynamic Systems Driven by Vector


Measures: Theory and Applications 1st Edition Ahmed

https://ebookmeta.com/product/optimal-control-of-dynamic-systems-
driven-by-vector-measures-theory-and-applications-1st-edition-
ahmed/

Drones to Go A Crash Course for Scientists and Makers


1st Edition Julio Alberto Mendoza-Mendoza

https://ebookmeta.com/product/drones-to-go-a-crash-course-for-
scientists-and-makers-1st-edition-julio-alberto-mendoza-mendoza/
Data-driven Analytics for Sustainable Buildings and
Cities: From Theory to Application 1st Edition Xingxing
Zhang

https://ebookmeta.com/product/data-driven-analytics-for-
sustainable-buildings-and-cities-from-theory-to-application-1st-
edition-xingxing-zhang/

Pro Serverless Data Handling with Microsoft Azure:


Architecting ETL and Data-Driven Applications in the
Cloud 1st Edition Benjamin Kettner

https://ebookmeta.com/product/pro-serverless-data-handling-with-
microsoft-azure-architecting-etl-and-data-driven-applications-in-
the-cloud-1st-edition-benjamin-kettner/

Introduction to Theory Driven Program Evaluation


Culturally Responsive and Strengths Focused
Applications 2nd Edition Donaldson

https://ebookmeta.com/product/introduction-to-theory-driven-
program-evaluation-culturally-responsive-and-strengths-focused-
applications-2nd-edition-donaldson/

Primary Mathematics 3A Hoerst

https://ebookmeta.com/product/primary-mathematics-3a-hoerst/

Tensors for Data Processing: Theory, Methods, and


Applications 1st Edition Yipeng Liu (Ed.)

https://ebookmeta.com/product/tensors-for-data-processing-theory-
methods-and-applications-1st-edition-yipeng-liu-ed/
Data Driven Strategies:
Theory and Applications

Wang Jianhong
School of Engineering and Sciences
Tecnologico de Monterrey, Monterrey, Mexico
Ricardo A. Ramirez-Mendoza
School of Engineering and Sciences
Tecnologico de Monterrey, Monterrey, Mexico
Ruben Morales-Menendez
School of Engineering and Sciences
Tecnologico de Monterrey, Monterrey, Mexico
First edition published 2023
by CRC Press
6000 Broken Sound Parkway NW, Suite 300, Boca Raton, FL 33487-2742

and by CRC Press


4 Park Square, Milton Park, Abingdon, Oxon, OX14 4RN

© 2023 Wang Jianhong, Ricardo A. Ramirez-Mendoza and Ruben Morales-Menendez

CRC Press is an imprint of Taylor & Francis Group, LLC

Reasonable efforts have been made to publish reliable data and information, but the author and
publisher cannot assume responsibility for the validity of all materials or the consequences of
their use. The authors and publishers have attempted to trace the copyright holders of all material
reproduced in this publication and apologize to copyright holders if permission to publish in this
form has not been obtained. If any copyright material has not been acknowledged please write
and let us know so we may rectify in any future reprint.

Except as permitted under U.S. Copyright Law, no part of this book may be reprinted, reproduced,
transmitted, or utilized in any form by any electronic, mechanical, or other means, now known or
hereafter invented, including photocopying, microfilming, and recording, or in any information
storage or retrieval system, without written permission from the publishers.

For permission to photocopy or use material electronically from this work, access www.copyright.com or
contact the Copyright Clearance Center, Inc. (CCC), 222 Rosewood Drive, Danvers, MA 01923, 978-
750-8400. For works that are not available on CCC please contact mpkbookspermissions@tandf.co.uk

Trademark notice: Product or corporate names may be trademarks or registered trademarks and are
used only for identification and explanation without intent to infringe.

Library of Congress Cataloging-in-Publication Data (applied for)


ISBN: 978-0-367-74659-9 (hbk)
ISBN: 978-0-367-75008-4 (pbk)
ISBN: 978-1-003-16070-0 (ebk)

DOI: 10.1201/9781003160700

Typeset in Times New Roman


by Innovative Processors
Acknowledgments

We are grateful to a number of outstanding people who we have the opportunity to


meet, learn from and work with during our PhD, postdoctoral and whose support
and encouragement have made this exciting and challenging journey possible.
Tecnologico de Monterrey is one top university all over the world. There we
can calm down to our teaching and research about advanced control theory and
engineering. Every day we always have coffee and talk about our new ideas about
the same topic. Due to the nice scenes and mountains, they often give us some
inspirations. Without these natural sceneries and support from Tecnologico de
Monterrey, we could not do any new directions for later research.
Jiangxi University of Science and Technology is one of the best places the first
author could have hoped for doing his teaching and research, and he acknowledges
the support from Jiangxi University of Science and Technology, which is an
exceptional lab and research environment with amazing and interesting people.
Finally, our special thanks go to our family and friends, without them we
would not have made it here. Thanks for understanding that time was often scarce
and for always encouraging us. We want to thank our parents and families for their
love and endless support, thanks for always being there for us.
After all, finishing this book is not the end of a journey, but the beginning of a
much bigger one. In the next years, we will try our best to combine the functional
analysis and geometry into system identification and advanced control theory.
Maybe we can open some new directions in these research fields.

Wang Jianhong
Ricardo A. Ramirez-Mendoza
Ruben Morales-Menendez
Preface

One of the motivations behind this book was to collect together the many
results of the direct data driven strategy from two different points, i.e. data
driven identification and data driven control. For this reason, we have, rather
unashamedly, included a number of ideas that were developed at Tecnologico
de Monterrey and in this sense some of the discussions in the book are included
as background material that some readers may wish to skip on an initial reading.
This book includes all of our recent contributions about direct data driven
strategy for control and identification respectively. These recent contributions are
all published in some international journals. On the other hand, we have clearly
attempted to incorporate all the major developments in this field, some of which
are rather recent and as yet may not be widely known.
Over the past few decades the state of this direct data driven strategy has come
close to our living information age. But it is still nowhere near closed enough for
many control applications. In this respect the field is wide open for researchers to
come up with fresh ideas that will bridge the gap between ideal performance and
achievable practice.

Wang Jianhong
Ricardo A. Ramirez-Mendoza
Ruben Morales-Menendez
Contents

Acknowledgments iii
Preface v

1. Introduction of Data Driven Strategy 1


1.1 Introduction 1
1.2 Outline 4
1.3 Contributions 6

2. Data Driven Model Predictive Control 8


2.1 Introduction 8
2.2 Application of bounded error identification into model
predictive control 9
2.3 Application of interval predictor model into model
predictive control 24
2.4 Stability analysis in cooperative distributed model
predictive control 41
2.5 Summary 52

3. Data Driven Identification for Closed Loop System 54


3.1 Introduction 54
3.2 Stealth identification strategy for closed loop linear time
invariant system 55
3.3 Performance analysis of closed loop system with a tailor made
parameterization 72
3.4 Minimum variance control strategy for the closed loop system 87
3.5 Synthesis identification analysis for closed loop system 96
3.6 Summary 106
viii Contents

4. Data Driven Model Validation for Closed Loop System 108


4.1 Introduction 108
4.2 Model structure validation for closed loop system identification 109
4.3 Non-asymptotic confidence regions in closed loop
model validation 121
4.4 Further results on model structure validation 125
4.5 Finite sample properties for closed loop identification 132
4.6 Summary 145

5. Data Driven Identification for Nonlinear System 147


5.1 Introduction 147
5.2 Parallel distributed estimation for polynomial nonlinear state
space models 148
5.3 Recursive least squares identification for piecewise affine
Hammerstein models 166
5.4 Summary 181

6. Data Driven Iterative Tuning Control 184


6.1 Introduction 184
6.2 Zonotope parameter identification for piecewise affine system 185
6.3 Iterative correlation tuning control for closed loop linear time
invariant system 198
6.4 Controller design for many variables closed loop system under
non-interaction condition 215
6.5 One improvement on zonotope guaranteed parameter estimation 226
6.6 Summary 229

7. Data Driven Applications 232


7.1 Introduction 232
7.2 Applying set membership strategy in state of charge estimation
for Lithium-ion battery 233
7.3 Optimal input signal design for aircraft flutter model parameters
identification 255
7.4 Synthesis cascade estimation for aircraft system identification 286
7.5 Summary 302

8. Data Driven Subspace Predictive Control 305


8.1 Introduction 305
8.2 Nearest neighbor gradient algorithm in subspace predictive
control under fault condition 306
Contents ix

8.3 Subspace data driven control for linear parameter varying system 319
8.4 Local polynomial method for frequency response function
identification 334
8.5 Conclusion 346

9. Conclusions and Outlook 348


9.1 Introduction 348
9.2 Outlook 350

Index 351
CHAPTER

1
Introduction of Data Driven Strategy

1.1 Introduction
In designing the feedback controller for every control system structure, we always
assume that the mathematical model corresponding to the plant is known in prior,
i.e. the process of designing the controller is based on the priori knowledge of
the plant. But this assumption does not hold in reality, i.e. the considered plant is
unknown, in which case the mathematical model of the plant may be identified by
many system identification methods. Generally, to design the feedback controller
in the closed loop system, there exist two kinds of approaches based on the priori
knowledge of the plant. These two approaches are divided into model based control
and direct data driven control. The main difference between these two approaches
is whether the mathematical model for the plant is needed to be identified prior.
The model based control approach needs to construct the mathematical model of
the plant by using a mechanical modeling technique or system identification idea,
then this mathematical model is used to design the later controller. So the controller
performance of this model based control approach depends on the accuracy of
the identified plant. To alleviate this dependency, some scholars propose to apply
the input-output measured data to design the controller directly and avoid the
tedious identification process of the plant. From a system identification idea point
of view, the second approach, as stated above, is called the direct data driven
control approach. The system identification idea plays an important role in theory
and engineering, because it not only provides a method to construct an accurate
mathematical model for the plant, but is a source of ideas for designing controllers
directly for the closed loop system. Furthermore, as the direct data driven control
approach avoids the identification process concerning the plant, and simplifies the
whole designing process of the controller, in theory or in the engineering field it
is more widely considered to achieve the control performance than the classical
model based control method. Many common direct data driven control approaches
include virtual reference feedback tuning control, subspace predictive control,
iterative feedback tuning control, etc. The essence of direct data driven control is
to extract all the useful and learnable information from the input-output measured
2 Data Driven Strategies: Theory and Applications

data that can be extracted with a model class suggested. The concept of learnable
information is formally defined, which in many cases but not always creates a
special data dependent criterion. The feasible for direct data driven control is that
in model building we are up against the fundamental problem in science, which
is to learn from nature, and a successful application of direct data driven control
requires a measure of thinking.
The main advantage of direct data driven control is that the controller is
designed directly by using only input-output measured data without identifying
the plant, i.e. the mathematical model for the plant is unknown. Because of some
safety and production restrictions, the open loop system is not used widely in
many industrial production processes. So in such a situation, it is very urgent to
design a controller in a closed loop system. But the difficulty with the controller
design in the closed loop system is that the correlation is considered between the
input and external disturbance induced by the feedback loop. When considering
the problem of designing a controller in a closed loop system, the controller is
always designed based on a known mathematical model for the plant. But the
mathematical model for the plant cannot be easily determined in the industrial
process, as the cost of developing the mathematical model for the plant is very
high. The original idea of data driven control arises from system identification,
which applies the input-output measured data to obtain the mathematical equation
for the plant, so some existing theoretical results from system identification can
be extended to data driven control. As the goal of system identification is to
identify the plant and data driven control concerns in designing the controller,
some similarities exist between them. For example, after the mathematical
equation, corresponding to the plant is obtained through the least squares method
or other statistical methods, after which the model structure validation is used to
testify whether the identified plant is accepted or refused. If the identified plant is
refused, then all the four steps in system identification are restarted to identify a
new mathematical equation for the plant.
Direct data driven control and model predictive control, two separable
subjects in academic research, are gaining more popularity in recent years. Direct
data driven control and model based control are two main strategies for designing
controllers whether in open loop or closed loop structures. More specifically,
model based control is used to identify or construct a mathematical equation for
the considered system firstly, then this constructed mathematical equation is used
to design the feedback controller or feed-forward controller. So for a model based
control strategy, the performance of the latter controller is closely dependent on
the identified model corresponding to that considered system. When constructing
a mathematical equation or identifying an unknown system, physical modeling
and system identification are applied widely as the most important step, i.e.
no model then no controller. To avoid the identification step during the whole
controller design, the idea of system identification is extended to get a new control
strategy, i.e. direct data driven control. As the system uses the measured data to
identify the unknown system, then can we think that the measured data could be
Introduction of Data Driven Strategy 3

applied to design the unknown controller, not the unknown system? This is the
main essence of direct data driven control, and the common element between
system identification and direct data driven control is to let the measured data
speak something about the unknown system and unknown controller. Because
there is no need for the mathematical equation for the unknown system, direct
data driven control is widely studied in theory research and practice, such as paper
machines, chemical processes, and water networks. Generally, direct data driven
control includes some kind of forms, for example, virtual reference feedback
tuning and iterative correlation tuning, etc. As system identification is the original
idea for direct data driven control, lots of new concepts, coming from system
identification, can also be applied to direct data driven control, for example,
persistent excitation, model validation and optimal input signal, etc. Consider a
special case where constrain conditions are imposed in unknown parameters in
system identification, then lots of existing numerical optimization methods are
introduced to identify the unknown parameters, and Lyapunov theory is used to
analyze the parameter convergence and algorithm stability. Similarly, if constrain
conditions are also considered in controller design, then one novel control strategy
is yielded to be model predictive control (MPC).
Model predictive control is a powerful methodology that has been widely
considered and used in a variety of industrial applications, such as building
energy management. More specifically, model predictive control is a special
form of suboptimal control problem, whose control objective is to keep the state
of a system near some desired points. MPC combines elements of several ideas
that we have put forth, for example, certainty equivalent control, multistage look
ahead, and rollout algorithms. MPC tends to have some applied properties for
classical linear quadratic control, i.e. there are two main reasons for replacing
the classical linear quadratic control with MPC: (1) The considered system
may be nonlinear, and using a model that is linearized around the desired point
for control purposes may be inappropriate. (2) There may be control and state
constraints, which are not handled adequately through a quadratic penalty on
state and control. The solution obtained from a linear quadratic model is not
suitable for this because the quadratic penalty on state and control tends to blur
the boundaries of the constraints. Generally, MPC converts one optimal control
problem into one numerical optimization problem with equality or inequality
constraints, which correspond to the control and state constraints. Moreover,
when the considered system is either deterministic, or else it is stochastic, it
is replaced with a deterministic version by using typical values in place of all
uncertain quantities, such as the certainty control approach in implementing
MPC. Roughly speaking, at each stage, an optimal control problem is solved over
a fixed length horizon, starting from the current state. The first component of the
corresponding optimal policy is then used as the control of the current stage, while
the remaining components are discarded. The optimization process is then repeated
at the next stage, once the next state is revealed or the optimization algorithm is
terminated iteratively.
4 Data Driven Strategies: Theory and Applications

From the above detailed description of MPC, MPC corresponds to one


numerical optimization problem, whose cost function or loss function is one
error value between the actual output and its desired output reference. In reality,
the desired output is given, but the actual output is unknown in priori, so firstly
we need to model the considered system and collect its actual output through
persistently exciting the system with one appropriate input signal. It means the
considered system is identified and used to calculate the actual output. There are
two modeling approaches used to identify the considered system, the first principle
and system identification. The first principle needs lots of priori information about
the considered system, such as Newton’s law, mathematical or physical laws, etc.
The main essence of system identification is to excite the considered system,
then use these collected input-output data to identify or estimate the unknown
parameters, as the parameters are estimated online and used to describe the
considered system, whether in open loop or closed loop conditions. The advantage
of the second system identification approach is that no other priori information
is needed, but only input-output data. In this big data period, this requirement
for input-output data is tolerable. Roughly speaking, when obtaining the actual
output in the cost function for MPC, the input-output data, corresponding to the
considered system in an open loop or closed loop, are collected to identify the
system through some statistical methods, for example, the least squares method,
maximum likelihood method, etc. Then the identified system is applied to express
or describe the actual output, so the actual output depends on the accuracy of the
identified system. In practice, system identification is a well-developed technique
for estimating system parameters from operational data typically taken during
dedicated system testing or excitation, so system identification is also named as
data driven.
Data driven control methods for system analysis and control such as virtual
reference feedback tuning, subspace prediction control, model free control based
on neural networks, and our considered iterative correlation tuning control have
become increasingly popular over the recent years. The common property among
them is that the controller is designed directly by the input-output measured data
without any prior knowledge about the considered plant i.e. system identification
and some physical principles are not needed to construct the mathematical equation
for the considered plant. More specifically, in the case of the parameterized
controller, the problem of designing the unknown controller is transformed into
identifying those unknown controller parameters. As data driven control methods
not only alleviate the dependency on the plant, but also simplify the controller
design, so now they are widely studied in engineering and theoretical research.

1.2 Outline
The entire structure of this book is plotted in Fig. 1.1, where the closed relations
among all chapters are explicitly seen. Chapter 1 introduces some prior knowledge
about data driven control, model predictive control, and the whole structure of
Introduction of Data Driven Strategy 5

this book. Then from Chapter 2, our contributions are given one by one. More
specifically, in Chapter 2, the combination of data driven and model predictive
control is proposed to be one novel advanced control strategy-data driven model
predictive control, where the prediction output in the cost function for model
predictive control is constructed based on the interval predictor and bounded error
prediction. In Chapter 3, some new results about closed loop system identification
are described from the point of stealth identification, then to complete the theory
analysis for system identification, model structure validation is considered for the
studied closed loop system identification in Chapter 4. Based on the results of
model structure validation for closed loop system identification, its inverse thinking
is proposed to be one data driven control strategy-iterative correlation tuning
control, whose interact property is also considered in Chapter 6. Furthermore, our
new research on nonlinear system identification is put forth in Chapter 5, which
corresponds to our previous study on linear system identification. To be best of
our knowledge, new theories must be used to solve some problems in engineering,
so in Chapter 7, our proposed data driven control and date driven identification
are applied to solve two cases of engineering problems. For example, state of
charge estimation and optimal input design for aircraft flutter model parameters
identification. Concluding remarks are given at the end of each chapter, and in
Chapter 8, we then provide a brief summary on the results presented in this book
and an outlook to possible directions for future research on these topics.

Figure 1.1: Structure of this book


6 Data Driven Strategies: Theory and Applications

1.3 Contributions
The main theme of this book is the development of system identification and
advanced control theory into one recent novel data driven control strategy. In
this book, the contributions of the proposed theories and their applications in
engineering proposed by the authors over the recent years, are given in detail.
As research on system identification and some control strategies, such as model
predictive control and adaptive control are very mature, therefore, especially
in this information period, it is time for the identification of control. System
identification is used to construct the mathematical model for the considered
plant, which is unknown. Based on this mission, we propose that we can extend
system identification to construct the prediction output directly, or harvest the
expected closed loop controller from the measured input-output data. Then the
identification of the unknown plant is neglected, i.e. the unknown controller is
obtained from the measured data. This thought was a stroke of luck. Firstly, based
on our previous research on system identification theory, we found that many
existing results from the system identification theory can be applied to serve or
solve our thinking. In this book, all contents are divided into two categories, the
first category corresponds to our recent research on the system identification
theory, and the second category is our applied system identification into some
advanced control theory, resulting in the yield of two data driven control
strategies. For the sake of convenience, whatever the system identification and
advanced control, we call them data driven estimation and data driven control, as
they have one common property, i.e. lots of measured data are used to construct
the mathematical model or closed loop controller.
The goal of system identification strategy is to build a mathematical model of
a dynamic system based on some initial information about the considered system
and the measured data collected from the experiment. The detailed processes
of the system identification strategy consist of designing and conducting one
identification experiment in order to collect the measurement data, selecting the
structure of the dynamic system and specifying the unknown parameters to be
identified, and eventually fitting the model parameters to the obtained data. As a
consequence, the quality of the obtained model is evaluated through the model
validation procedure. Generally, the system identification strategy is an iterative
process and if the quality of the obtained model is not satisfactory, some or all
of the listed phases can be repeated to yield one satisfied model. As the system
identification theory is sometimes considered a mature field, with a wide and solid
literature, many tools or methods for system identification, as well as for control
theory, and stability analysis, have emerged in recent years.
For the first case-data driven estimation or identification, our contributions
are concerned with closed loop system identification and nonlinear system
identification, which correspond to the more complex systems. Through the
identification process, new identification strategies and model structure validation
are considered our main subjects, other subjects are also covered, such as the
Introduction of Data Driven Strategy 7

optimization algorithm, convergence analysis, consistent analysis, etc. The most


important point is that stealth is introduced to achieve the closed loop system
identification, i.e. stealth identification. For the nonlinear system identification,
the Polynomial nonlinear state space model and tailor made parameterization are
proposed to denote the considered nonlinear system. Based on this priori research
on system identification or data driven estimation, we then start to think of the
principle of data driven control.
For the second case-data driven control, our contributions are concerned
with iterative correlation tuning control and data driven model predictive control.
Our proposed iterative correlation tuning control originates from the last system
identification process, i.e. model structure validation. It means that the inverse idea
for model structure validation is used to get iterative correlation tuning control,
and in the implementation of this iterative correlation tuning control, lots of other
topics are applied, such as stochastic algorithm, convex optimization, game theory,
and hybrid theory, etc. As direct data driven control and model predictive control
are two separate subjects in academic research, our next mission is to combine
them, which means that we continue research on applying system identification
to model predictive control, i.e. data driven model predictive control equals to
system identification for model predictive control.
Generally, the main advantage of direct data driven control is that the controller
is designed directly by using only input-output measured data without identifying
the plant, i.e. the mathematical model for the plant is unknown. Because of some
safety and production restrictions, the open loop system is not used widely in
many industrial production processes. So in such situations, it is very urgent to
design controllers in the closed loop system. But the difficulty with the controller
design in a closed loop system is that the correlation is considered between the
input and external disturbance, induced by the feedback loop. If considering the
problem of designing a controller in the closed loop system, the controller is
always designed based on a known mathematical model for the plant. To avoid
the identification process for an unknown model for the plant and to design the
controller directly in the closed loop system, the direct data driven control scheme
has been studied profoundly, where the feedback controller and forward controller
exist in the same closed loop system simultaneously.
The book is intended as a text book for graduate students as well as a basic
reference for practicing engineers facing the problem of designing control systems.
Control researchers from other areas will find a comprehensive presentation filed
with bridges to various other control design techniques.
chapter

2
Data Driven Model Predictive Control

2.1 Introduction
In this chapter, some newly derived results about system identification are applied
in the model predictive control. To emphasize that the model predictive control
is based on system identification, the name of the data driven model predictive
control is used here. More specifically, two concepts—bounded error and interval
predictor model, coming from the system identification theory, are introduced into
model predictive control. Further, the stability analysis and the robustness of the
data driven model predictive control are also studied.
(1) Bounded error identification is applied to model predictive control. After
introducing the family of models and some basic assumptions, we present
bounded error identification to construct the interval predictor, using the
neighborhood of a given data point. To guarantee the obtained interval
predictor to be a minimum interval predictor, two optimal vectors used
to adjust the width of the obtained interval predictor are suggested to be
piecewise affine forms, using the Karush-Kuhn-Tucker (KKT) optimality
conditions. When the interval predictor is applied to model predictive
control, the midpoint of that interval is chosen in an optimization problem to
obtain the optimal control input for model predictive control. The property
that controls input exists in its own cost function inspires us to use parallel
distributed algorithms to solve the unconstrained or constrained optimization
problem, and the detailed computational process of the Newton algorithm
and Augmented Lagrangian algorithm are given for the sake of completeness.
(2) Interval prediction model is studied for model predictive control strategy with
unknown but bounded noise. After introducing the family of models and some
basic information, some computational results are presented to construct the
interval predictor model, using a linear regression structure whose regression
parameters are included in a sphere parameter set. A size measure is used
to scale the average amplitude of the predictor interval, then one optimal
model that minimizes this size measure is efficiently computed by solving
a linear programming problem. The active set approach is applied to solve
Data Driven Model Predictive Control 9

the linear programming problem, and based on these optimization variables,


the predictor interval of the considered model with a sphere parameter set
can be directly constructed. To apply the interval prediction model to model
predictive control, the midpoint of that interval is substituted in a quadratic
optimization problem with an inequality constrained condition to obtain the
optimal control input. After formulating it as a standard quadratic optimization
and deriving its dual form, the Gauss-Seidel algorithm is applied to solve
the dual problem and the convergence of the Gauss-Seidel algorithm is
provided too.
(3) As the cooperative distributed model predictive control scheme is widely
applied in large scale networks of systems, asymptotic stability is a very
important index for measuring the performance of cooperative distributed
model predictive control. Based on the obvious inequality from the classical
Lyapunov stability condition, we derive a set of linear matrix inequalities
to replace the common inequalities by using the Schur complement and
S-procedure. Furthermore, when combining local state and input constraint
sets, a set of more complex linear matrix inequalities is used to guarantee the
asymptotical stability for cooperative distributed model predictive control.

2.2 Application of bounded error identification


into model predictive control
Model predictive control has developed considerably over the past two decades,
both within the control field and in the industry. This success can be attributed to
the fact that model predictive control is perhaps the most general way of posing
the constraint control problem in the time domain. Model predictive control
formulation integrates optimal control, stochastic control, control of processes
with dead time, multivariable control, and future references when available.
One important advantage of model predictive control is that because of the finite
control horizon used, constraints and, in general, nonlinear processes which
are frequently found in industry, can be handled. The rationale behind model
predictive control is the following: at each time step, an L2 or alternative variation
of the cost function is locally optimized over time to obtain the open loop control
as a function of time instant, only a small portion of which is actually applied
to the system. The time horizon is then shifted, and the process is repeated at a
later time step based on state feedback [1]. Although model predictive control
is a robust type of control in most reported applications, some new and very
promising results allow one to think that this control technique will experience
greater expansion within this community in the near years [2]. However, although
lots of applications have been reported in both industries and research institutions,
model predictive control has not yet reached its popularity in the industry.
The most important element in model predictive control is the prediction
of output value. After deriving the prediction of output value by the prediction
error method and then substituting it with the one considered cost function, we
10 Data Driven Strategies: Theory and Applications

take the derivative of the cost function concerning input value to obtain one
optimal input [3]. But the problem of deriving the prediction of output value is
dependent on external noise, which is always assumed to be independent and
identically distributed white noise. Because white noise is an ideal case, it does
not exist in engineering, additionally, deriving statistical properties of noise
is often very difficult in practice as it is usually not possible to measure noise
directly [4]. To relax this strict probabilistic description of noise, an assumption
on the noise bound is less restrictive, as noise is bounded and the bound can be
roughly calculated from the specification of the used sensor. Here we investigate
the model predictive control in presence of bounded noise, which is similar to
set membership predictive control [5]. The idea of set membership predictive
control is from set membership identification in the classical system identification
theory. As this chapter is different from set membership identification, we apply
the interval predictor model, coming from classical system identification theory
to model predictive control. To have a better understanding of how to apply the
interval predictor model to model predictive control, we first give a short review
of the interval predictor model.
In the classical system identification theory, one parametric model structure
corresponding to an identified system is selected firstly, and then the parameters
in the parametric model structure are estimated using the measured input-output
data. During the system identification process, many identification methods are
proposed to identify these unknown parameters, for example, the classical least
squares method, instrumental variable method, maximum likelihood estimation
method, prediction error method, Bayesian method, etc. [6]. One common
property of these identification methods is that the prior information about noise
is known. Based on some probabilistic assumptions on noise, the unknown
parameters are identified as the specific numerical values. But the probabilistic
assumptions on noise are not realistic and these probabilistic assumptions are
not realized easily in reality. So to relax the probabilistic assumptions on noise,
we always assume that the noises are unknown but bounded. This unknown but
bounded assumption is weaker than the original probabilistic assumption, as it
needs no prior distribution on noise. The commonly used method applied to solve
the unknown but bounded case is called set membership identification [7]. In the
set membership identification, the obtained result is not a detailed numerical value,
but a guaranteed interval with respect to each parameter. This guaranteed interval
means that each parameter can be included in this interval with one guaranteed
accuracy which is assessed by some probabilistic inequalities. From the idea
of set membership identification, after the unknown parameters are identified,
the identified parametric model may be applied to determine one prediction for
the output value of the system, together with probabilistic confidence intervals
around the prediction [8]. The confidence interval can accurately describe the
actual probability that the future predictor will fall into the obtained interval. The
future predictor is important for the next controller design and state estimation, so
in [9], a novel approach for the construction of prediction models is proposed. The
Data Driven Model Predictive Control 11

advantage of this novel approach is that instead of using a standard identification


way, where one constructs a parametric model by minimizing an identification
cost, the identified model is used to design the prediction interval [10]. This
novel approach directly considers the interval model and applies measured data
to ascertain the reliability of such an interval predictor model [11]. It means that
we directly obtain the interval predictor model from measured data and avoid the
identification process for the parametric model structure.
In this section, the framework is to propose new system output predictors
based on the bounded error identification technique and stored data and apply
them to model predictive control. When constructing new system output
predictors, a local approximation of the considered system is generated in a
bounding sense. For every data point given, data from the neighborhood of this
given point is gathered and a prediction for this given point is formed. As the
bounded error identification technique returns a guaranteed interval predictor to
bind the considered system output, i.e. a lower and upper bound of the system
output is obtained, so the midpoint of the interval prediction can be used as a
central estimate, which is a new system output predictor at every given point.
The contribution of the paper is two folds. Firstly, after introducing the family
of models under study and some basic information or assumptions about the
bounded error identification technique, a guaranteed interval predictor is obtained
to bind the system output. To assure the obtained guaranteed interval predictor
is a minimum interval prediction under our assumptions, we find the minimum
interval predictor depends on two vectors. Then if these two vectors are chosen
appropriately, the minimum interval predictor will be constructed easily. In this
case, two linear optimization problems are solved to obtain these two optimal
vectors. As absolute values exist in these two linear optimization problems, we
apply the Karush-Kuhn-Tucker optimality conditions to see that the optimal
vectors are all piecewise affine forms. Secondly, based on this constructed interval
predictor, the midpoint of this interval predictor can be used as a central estimate,
then the prediction of the system output can be obtained by that central estimate.
The goal of model predictive control is to control the system to track the desired
output reference and reject disturbances. Moreover, the considered controller may
enforce input and output constraints. So when applying that central estimate to
the prediction of the system output, such a control objective can be formulated
as a quadratic programming problem with an inequality constrained condition.
Through observing a cost function in this quadratic programming problem, we find
the control input at each time instant exists in each cost function separable, then
it would be possible to decompose the original quadratic programming problem
into many independent sub-problems. This motivates us to apply the parallel
distributed algorithm to solve each separable and independent sub-problem.
For the sake of completeness, the approximate Newton method is proposed to
solve the quadratic programming problem without constrained conditions, and
further to solve the quadratic programming problem with inequality constrained
12 Data Driven Strategies: Theory and Applications

condition, the augmented Lagrangian strategy is carried out to complete the goal.
Whatever approximate Newton method or augmented Lagrangian strategy is used
here, the parallel distributed idea spans the whole computation process, where the
detailed gradient vector and Hessian matrix corresponding to each cost function
in the sub-problem are also given.

2.1.1 Problem formulation


To introduce a problem for prediction based on nonparametric the local estimation
and bounded error identification technique, consider an unknown discrete time or
possibly a nonlinear system. At time instant k, a measured output of a considered
system is denoted as yk ∈ R, uk ∈ R nu is a vector of noise corrupted measurements
of the system or the control input. The exact functional form that relates yk and uk
is unknown, but a bounding inequality is assumed as follows. As any discrete time
instant k, the measured output yk and vector xk are related by inequality.

yk  r uk  uk    (2.1)
where   R is a known positive constant, r (uk )  R n is a known function and
 (uk )  R n is an unknown function. From (2.1), it means that at each sample time
k, the measured system output can be approximated locally by an affine expression
of a known regressor vector r(uk). The error of above local approximation is
bounded by the constant σ. Function r (uk ) : R nu  R n defines the components
of the regressor vector and the dimension of θ(uk). All the above descriptions
on system and some options for regressor vector r(uk ) can be seen in [17]. As in
this paper, the values of the parameters are not estimated, our goal is to require
a prediction for a given point, and only then a bounding assumption of function
θ(uk) is needed.
Assumption 2.1: There exist known positive constant L1 and such that r u   C ,
and
L1
           ui    u j   s (ui , u j ), i, j (2.2)
C
where ui, uj denote two measurements at two different sample time instants i, j,
{
is a Euclidean norm and s (uk ) ∈ 0, R }
+
is a known nonnegative function.
Function s(uk) defines the locality of (2.2), constant σ and L1 define the level
of uncertainty present in the approximation. Note that σ and L1 are a priori
information, constant L1 bounds the normalized rate of change corresponding
to function θ(uk), constant σ bounds the error present in the local and affine
approximation r(uk) θ(uk).
As the idea of a bounded error identification strategy is to provide an interval
predictor which gives an estimate of the maximum and minimum bounds on system
output yk. Based on this interval predictor, a central estimate yk can be obtained as
the midpoint of the interval predictor. Then this system output predictor will be
used in model predictive control to track the desired output reference and reject
disturbance.
Data Driven Model Predictive Control 13

2.2.2 Predictor based on bounded error identification


Assume a set of noise corrupted measurements yi and ui , i = 1, 2 N be available
and denote the data set = as D {= ( ui , yi ) : i 1, 2 N }. A family of interval
predictors, used to bind the system output, uses a neighborhood of uk to infer the
prediction. Let the neighborhood of a given sample value uk be a nonempty subset
Dµ ( uk = {( ) }
) usl , ysl : sl ∈ {1, 2 N } , l − 1, 2 N µ ⊆ D of measured data, where
Nµ = µN and   0,1 is a constant. Constant µ determines the cardinality of set
Dµ(uk). Therefore the interval predictors use every element of set D when µ = 1
or a subset Dµ(uk) if µ < 1 to obtain the interval bounds. Then using the bounded
error identification strategy, the interval predictor is formulated as
Theorem 2.1 (Interval predictor): Given a vector uk ∈ R nu , a nonempty set of
measurements Dµ ( uk =
) {(u sl ) }
, ysl : sl ∈ {1, 2 N } , l − 1, 2 N µ ⊆ D and two

vectors λ , λ ∈ R , an interval predictor
f λ ( uk ) =  f λ ( uk ) , f λ ( uk ) 

with f λ ( uk ) ≤ f λ ( uk ) , can be defined as


 T
 f λ ( uk ) = − λ b1 + λ T b2 − σ
 T
 f λ ( uk ) = λ b1 + λ T b2 + σ
(2.3)
where λ denotes a vector whose elements are the solute values of the elements
of vector λ. Vectors b1 and b2 are defined as
 σ + L1 s ( uk , us ) 
 1

 σ + L1 s ( uk , us )  T
= b1 =
       
2
 , b2  ys ys2  ysN µ  (2.4)
    1 
 
σ + L1 s uk , usN 
 µ  ( )
Equation (2.3) is one interval predictor model, it contains the system output
yk with some guaranteed probability. When measured data are collected in data set
=D {=
( ui , yi ) : i 1, 2 N }
or

{( )
Dµ ( uk ) = usl , ysl : sl ∈ {1, 2 N } , l =1, 2 N µ ⊆ D }
whatever open loop or closed loop is used the following relation holds:

=
      yk ∈ f λ ( uk )  f λ ( uk =
) , fλ ( uk ) , ∀ k 1, 2 N (2.5)
14 Data Driven Strategies: Theory and Applications

It means the system output predictor will be included in this guaranteed interval
with one guaranteed accuracy. To do deep analysis of the guaranteed interval
(2.5), define the feasible solution set Θ ( uk ) as

{ ( ) ( )(
  Θ ( uk ) = θ ∈ R θ : ysl − r usl θ ≤ σ + L1s uk , usl , usl , ysl ∈ Dµ ( uk )
n
) } (2.6)
Set Θ ( uk ) can be rewritten in matrix form as

{
Θ ( uk ) = θ ∈ R nθ : A1θ − b2 ≤ b1

}

( )
T

( ) ( )
         A1 =  r us1 r us2  r usN µ 

(2.7)

Using above notations, we obtain the following Theorem 2.2.


Theorem 2.2: Given data sequence (uk, yk) about the unknown system, and an
interval predictor fλ(uk) is given by (5), if A1  A1  r uk  , then it holds that

f λ ( u k ) ≤ yk ≤ f λ ( u k )

Proof: The second inequality was proven in [12], so here we only prove the first
inequality. As θ k ∈ Θ ( uk ) and from inequality yk − r ( uk )θ k ≤ σ , we obtain

Θ ( uk )} − σ min { A1λ T θ , θ ∈ Θ ( uk )} − σ
yk ≥ r ( uk )θ k − σ ≥ min {r ( uk )θ , θ ∈=
= min {λ T ( A1θ − b2 ) + λ T b2 ,θ ∈ Θ ( uk )} − σ

= min λ { T
( −b1 ) + λ T b2 ,θ ∈ Θ ( uk )} − σ
T
− λ b1 + λ T b2 − σ
= (2.8)

Thus concluding the proof.


By observing the interval predictor (2.3) and (2.5) again, from the set
membership identification theoretical perspective, {b1 , b2 , σ } are prior known,
so in order to construct this interval predictor, two vectors λ and λ must be
chosen appropriately. A good option about choosing two variables λ and λ is
to provide the minimum interval prediction and present optimal properties in the
worst case prediction error sense. The minimum interval predictor is achieved by
two optimal vectors such that
T
=λ arg min λ b1 + λ T b2
λ
subject to A1λ = r ( uk )
(2.9)

T
λ = arg min − λ b1 + λ T b2
λ
subject to A1λ = r ( uk )
(2.10)
Data Driven Model Predictive Control 15

In this worst case prediction error sense, these two vectors λ and λ are
obtained by solving the above two linear optimization problems respectively.
Now we apply KKT optimality conditions to solve linear optimization
problem (2.9). Notice that there exist absolute operations in linear optimization
problem (2.9), one slack variable s is introduced to eliminate the absolute
operations, λ ≤ s.
Using the slack variables in (2.9), the linear optimization problem (2.9) can
be reformulated as that

min sT b1 + λ T b2
s ,λ

subject to
        = A1λ r ( uk ) , λ ≤ s, and − s ≤ λ (2.11)
Since KKT optimality conditions are necessary and sufficient conditions for
optimal solution, then the Lagrangian function of (2.11) can be written as
L ( λ , s, µ1 , µ2 , µ3 )= sT b1 + λ T b2 − µ1 ( A1λ − r ( uk ) ) − µ2 ( s − λ ) − µ3 ( s + λ ) (2.12)

where µi , i = 1, 2,3 are the Lagrangian multipliers, since s = λ for an optimal


solution (λ, s), the KKT conditions are equivalent to the following relations

∂L
= b2 − µ1 A1 + µ2 − µ3 = 0 (a)
∂λ
∂L
=b1 − µ2 − µ3 =0 (b)
∂s
∂L
=A1λ − r ( uk ) = 0 (c)
∂µ1
µ2 ( s − λ )= 0, µ2 ≥ 0 (d)
µ3 ( s + λ )= 0, µ3 ≥ 0 (e)

From (d) and (e), we can see that λ > 0 implies µ3 = 0, and that λ < 0 implies
µ2 = 0, so next we continue to discuss the two cases.
(i) λ > 0 ⇒ µ3 =0
Adding (a) and (b) to get that
µ1A1 = b1 + b2
Multiplying µ1 on both sides of (c), we get that
µ1A1λ = µ1r(uk)
Substituting µ1A1 = b1 + b2 into µ1A1λ = µ1r(uk), we obtain
(b1 + b2)λ = µ1r(uk)
16 Data Driven Strategies: Theory and Applications

As we are not assured that (b1 + b2) is invertible, so in order to obtain the
optimal vector λ, we use the pseudo inverse matrix to remedy the rank deficiency,
i.e.
−1
( b1 + b2 )T ( b1 + b2 )( b1 + b2 )T  µ1r ( uk )
λ=
  (2.13)

Furthermore we see that λ > 0 implies µ3 = 0, but µ2 > 0, from (a) we get

b2 − µ1 A1 =
− µ2 < 0
Also from (b), we have that

b1 µ2 > 0
=

(ii) λ < 0 ⇒ µ2 =0
This case is similar to case (i), then we also obtain
−1
   ( b2 − b1 )T ( b2 − b1 )( b2 − b1 )T  µ1r ( uk )
λ=
 
(2.14)

Furthermore if λ < 0, then µ2 = 0 and µ3 > 0, then from (a) and (b), we have that
b2 − µ1 A1 =µ3 > 0, b1 =µ3 > 0
Combining the above analysis on linear optimization problem (2.9), the
appropriate choice on vector λ is formulated as Theorem 2.3.
Theorem 2.3: Suppose that linear optimization problem (2.9) is feasible, then
N
there exists 1  R , such that for an optimal solution λ * , it holds that
 T −1
( b + b )( b + b )T 
*
( b1 + b2 )  1 2 1 2 
µ1r ( uk ) , b2 − µ1 A1 < 0 ∩ b1 > 0
λ =
−1
( b − b )T ( b − b )( b − b )T  µ1r ( uk ) , b2 − µ1 A1 > 0 ∩ b1 > 0 (2.15)
 2 1  2 1 2 1 

Remark: If   0 , then f  uk    , which is a constant.


Similarly a good choice on vector λ can be seen.
Theorem 2.4: Suppose that linear optimization problem (2.10) is feasible, then
N *
there exists 2  R , such that for an optimal solution λ , it holds that
 T T −1
 ( b1 − b2 ) ( b1 − b2 )( b1 − b2 )  µ2 r ( uk ) , b2 + µ2 A1 > 0 ∩ b1 > 0
  
λ* = 
−1
( −b − b ) ( −b − b )( −b − b )T  µ r ( u ) b − µ A < 0 ∩ b > 0 (2.16)
T
 2 1 2 1 2 1 2 k 2 1 1 1
 
Data Driven Model Predictive Control 17

From the optimal choices on λ * and λ * , they are all piecewise affine forms,
and they automatically adapt to how the actual data samples are spread and can
easily handle sparse data sets or data lying asymmetrically.

2.2.3 Application bounded error identification into model


predictive control
We start to apply the above interval predictor, derived from bounded error
identification, into model predictive control strategy. A central estimate yˆ k can be
obtained by the expression
1 1
( )
T T
yˆ k =  λ * − λ *  b1 + λ * + λ * b2 =λ1b1 + λ2 b2
2  2
1 * 1
( )
T T
λ = λ − λ *  , λ2 =λ * + λ *
   1 2   2 (2.17)

where, optimal vectors λ * and λ * are derived from (2.15) and (2.16), the
midpoint of the interval predictor is used to regard the central estimate. Then yˆ k
is deemed as the system output predictor at sample instant k.

2.2.3.1 Model predictive control problem


The goal of model predictive control is to control the system in order to track a
desired output reference and reject disturbances from k = 1 up to some finite time
step N, where this time step N can be very large. Assuming that the control input
u l , l  0, 1, 2, are known, then a control objective can be formalized by one
optimization problem.
N
T
     min
u1u N
∑  yˆk − ydes ( k ) Q1  yˆ k − ydes ( k )  + ukT S1uk (2.18)
k =1

where ydes(k) is the desired output reference, Q1, S1 are positive semi-definite
weighting matrices selected by the designer. Observing (2.17) and (2.18), the
output predictor yˆ k , k = 1, 2 N exists in cost function (2.18).
Replacing yˆ k as 1b1  2 b2 into cost function (2.18), we obtain an explicit
form corresponding to optimization problem.
N
T
   min
u1u N
∑ λ1b1 + λ2b2 − ydes ( k ) Q1 λ1b1 + λ2 b2 − ydes ( k )  + ukT S1uk (2.19)
k =1

As in cost function (2.19), {λ1 , λ2 , ydes ( k ) , Q1 , S1 } are known, equation (2.4)


implies that vector b2 is consisted of measurement output around the neighborhood
of uk , and set Dµ ( uk ) = {( )
usl , ysl : sl ∈ {1, 2 N } , l = 1, 2 N µ is available. So }
vector b2 is also known, and control input uk only exists in vector b1. To express
this dependency on control input uk , we rewrite b1 as b1(uk). Then control input uk ,
k = 1, 2 … N can be derived by solving one optimization problem.
18 Data Driven Strategies: Theory and Applications

N
T
min
u1u N
∑ λ1b1 ( uk ) + λ2b2 − ydes ( k ) Q1 λ1b1 ( uk ) + λ2 b2 − ydes ( k ) 
k =1
T
+ ukT S1=
uk min f k ( uk ) f k ( u=
k) λ1b1 ( uk ) + λ2 b2 − ydes ( k ) 
u u
1 N

Q1 λ1b1 ( uk ) + λ2 b2 − ydes ( k )  + ukT S1uk (2.20)

From (2.20), we see that control input uk only exists in cost function fk(uk), not
other fi (ui ), i ≠ k. This property tells us that parallel distributed algorithm can be
applied to solve optimization problem (2.20).

2.2.3.2 Unconstrained parallel and distributed algorithm


The original optimization problem (2.20) can be divided into the N sub-
optimization problem, i.e. control input uk at time instant k can be gained by the
following sub-problem
min f k ( uk ) (2.21)
uk

As fk(uk) is twice continuously differentiable, Newton’s algorithm is described by


the equation
−1
   uk ( t + 1=
) uk ( t ) − γ ∇ 2 f k ( uk (t ) ) ∇f k ( uk (t ) ) (2.22)

where uk(t) denotes the control input at iteration step t, γ is a step size, ∇f k ( uk (t ) )
is the gradient vector, ∇ 2 f k ( uk (t ) ) denotes the Hessian matrix. Taking derivatives
of cost function fk (uk) with respect to uk , we obtain the gradient vector.

∂f k ( uk ) T  ∂b ( u ) 
∇f üüü( u =
) b (u
= 2 λüüü )+λ b −y ( k ) Q λ 1 k  + 2S u
∂uk  ∂uk 

(
 ∂s uk , us
 1 ) 
 ∂uk 
 
∂b1 ( uk )
(
 ∂s uk , us2 ) 
 
= L1  ∂uk 
∂uk
  
 
 (
 ∂s u , u
k sN µ ) 

 ∂uk  (2.23)
 

Taking derivatives of ∇f k ( uk (t ) ) with respect to uk again, the Hessian matrix


is given.
Data Driven Model Predictive Control 19

∂ 2 f k ( uk ) T
∇ 2 f k ( uk =
(t ) ) = 2
2 λ1b1 ( uk ) + λ2 b2 − ydes ( k ) 
∂ ( uk )
T
 ∂ 2b ( u )   ∂b1 ( uk )   ∂b1 ( uk ) 
1 k
Q1 λ1  + 2λ1   Q1   λ1 + 2 S1
    ∂ ( uk )2   ∂uk   ∂uk 
(2.24)

As Newton’s algorithm converges much faster than other classical algorithms,


and fk(uk) has a local minimum uk* for which ∇ 2 f k uk* is positive definite. Let ( )
uk (t + 1) be generated by Newton iteration with step size γ ≡ 1 , we have

( )
−1
uk ( t + 1) − uk* =∇ 2 f k ( uk (t ) )  ∇ 2 f k ( uk (t ) ) uk ( t + 1) − uk* − ∇f k ( uk (t ) ) 
 

( ( ))
−1 1
= ∇ 2 f k ( uk (t ) )  ∫0 ∇ f k ( uk (t ) ) − ∇ 2 f k uk* + ξ uk ( t ) − uk* 
2

(
d ξ uk ( t ) − uk* ) (2.25)
We obtain for Euclidean norm

uk ( t + 1) − uk* = ( ∫ ∇ f (u (t)) − ∇ f


∇ f k ( uk (t ) ) 
 2 
−1 1
0
2
k k
2
k

     (u + ξ (u (t ) − u )) dξ ) (u (t ) − u )
*
k k
*
k k
*
k (2.26)
Using the continuity of ∇ 2 f k ( uk (t ) ) , it follows that given any α ∈ ( 0,1) , there
exists some ε > 0 such that
uk ( t + 1)=
− uk* α uk ( t ) − uk* ( ) (2.27)
For all uk (t) with
(u k ( t ) − uk* ) ≤ ε
After simple computations on (2.27), we have

uk ( t +=
       1) − uk* α t +1 uk ( 0 ) − uk* ( ) ≤α t +1
ε (2.28)

Taking limit operation as t → +∞, then the fast convergence of Newton’s


algorithm is established.

lim uk ( t + 1=
) − uk* α t +1ε 0
lim=
t →+∞ t →+∞

It means when iteration step t → +∞ , the iteration value uk(t + 1) will approach
*
to local minimum uk closely.
20 Data Driven Strategies: Theory and Applications

2.2.3.3 Constrained parallel and distributed algorithm


In optimization problem (2.20) or (2.21), no constraints are considered, it is an
ideal case. Moreover, the controller may enforce input and output constraints.

umin ≤ uk ≤ umax
 k = 1, 2 N (2.29)
 ymin ≤ yˆ k ≤ ymax
where umin, umax and ymin, ymax denote the lower and upper bounds on input and
output respectively. Combining (2.20) and (2.29), the model prediction control
problem is formalized by the following optimization problem with inequality
constrained condition:
T
N  
min ∑ f k ( uk ); f k ( u=  λ1b1 ( uk ) + λ2 b2 − ydes ( k ) 
k)   
u1u N
k =1

 yˆ k 
 
Q1 λ1b1 ( uk ) + λ2 b2 − ydes ( k )  + ukT S1uk

  
 yˆ k 
umin ≤ uk ≤ umax
subject to  k = 1, 2 N
 ymin ≤ yˆ k ≤ ymax

Before solving above optimization problem with constrained condition, all


input and output constraints can be combined as follows:
=e j u m= j , j 1 r

uk ∈ Pk , k = 1, 2 N (2.30)
where u = (u1 u2 … uN), Pk is a bounded polyhedral set.
Let ejk denote the subvector of ej that corresponding to uk , and for a given j,
let I(j) be the set of indices k of subvectors uk that appear in the jth constraint eju
= mj, that is
I ( j )= {k \ e jk ≠ 0} , j= 1, 2 r
We transform one equivalent problem by introducing additional variables
z jk , k ∈ I ( j ) , as follows:
N
min
u1u N
∑ f k ( uk )
k =1
subject to e=
jk uk jk , j 1, 2 r , k ∈ I ( j )
z=
uk ∈ Pk , k =
1, 2 N
        ∑=
z jk j , j 1, 2 r
m= (2.31)
k∈I ( j )
Data Driven Model Predictive Control 21

For each j = 1, 2 … r, consider Lagrange multipliers pjk for the equality constraints
e=
jk uk z jk , k ∈ I ( j ) . The recursive relation of the multipliers is

  p jk ( t += (
1) p jk ( t ) + c ( t ) e jk uk ( t + 1) − z jk ( t + 1) = )
, j 1, 2 r , k ∈ I ( j ) (2.32)

where uk(t + 1) and zjk(t + 1) minimize the Augmented Lagrangian function

) (2 ) ∑ ∑ ( e jk uk − z jk )
N r c t r
(
2
∑ f k ( uk ) + ∑ ∑ p jk ( t ) e jk uk − z jk +
1
k= 1 k∈I ( j )
j= 1 k∈I ( j )
j=

subject to
  ∑ z jk = m j , j = 1, 2 r , uk∈ Pk , k = 1, 2 N (2.33)
k∈I ( j )

The minimization can be achieved iteratively by alternate minimizations with


respect to uk and zjk , then the iteration has the form

  c (t ) 
2
uk arg min  f k ( uk ) + ∑  p jk ( t ) e jk ς k +
=
 2
e jk ς k − z jk ( )  ,
ς k ∈Pk 
 { k / k ∈I ( j ) }  
∀k = 1, 2 N
 c (t )
{=
z jk / k ∈ I ( j ) }

arg min − ∑ p jk ( t ) ζ jk +
  k∈I ( j ) 2
,
 
ζ jk \ k∈I ( j ), ∑ ζ jk m
= j
 k ∈I ( j ) 

 
∑ ( e jk ς k − ζ jk ) , ∀j =1, 2 r (2.34)
k∈I ( j ) 

where the above minimization with respect to {ζ jk / k∈I ( j )} involves a separable


quadratic cost and a equality constant, the minimum is attained for
p jk ( t ) − λ j
      ζ jk =e jk uk + 1, 2 r , k ∈ I ( j )
,j= (2.35)
c (t )
where λj is a scalar Lagrangian multiplier, the choice of λj must satisfy that

∑ ζ jk = m j

k∈I ( j )

It is equivalent to

1 c (t )
= λj
   
nj
∑ p jk ( t ) +
nj
∑ ( e jk=
uk − m j ), ∀j 1, 2 r (2.36)
k∈I ( j ) k∈I ( j )

where nj is the number of elements of set I( j), that is

nj = I ( j)
22 Data Driven Strategies: Theory and Applications

From (2.35), the optimal values z jk ( t + 1) are given by

p jk ( t ) − λ j ( t + 1)
z jk ( t =
+ 1) e jk uk ( t + 1) + = , j 1, 2 r , k ∈ I ( j ) (2.37)
c (t )

Comparing (2.37) and (2.32), we see that


p jk ( t + 1)= j ( t + 1) , j= 1, 2 r, k ∈ I ( j )

Rewriting the multiplier update formula (2.32) and adding then, we obtain

c (t )  
  λ j ( t + 1=
) λ j (t ) +
n j  k∈I ( j )
(
 ∑ e jk uk ( t + 1) − z jk ( t + 1) ) ,=j 1, 2 r (2.38)
 
or equivalently
c (t )
    λ j ( t + 1=
) λ j (t ) +
nj
( e j u ( t + 1) − m j ) ,=j 1, 2 r (2.39)

By replacing pjk(t) by λj(t) in (2.35) and (2.36), the update formula for zjk is
obtained.
λ j (t ) − λ j
     z jk =
e jk uk + 1, 2 r , k ∈ I ( j )
,j= (2.40)
c (t )
where λj is given by
c (t )
    λ j =λ j ( t ) +
nj
∑ ( e jk ui − m j ), j =1, 2 r (2.41)
k∈I ( j )

Combining these two equations, the iteration for zjk becomes


1
z jk =e jk uk −
    
nj
( )
e j u − m j , j =1, 2 r , k ∈ I ( j ) (2.42)

By substituting (2.42) into (2.34) to eliminate zjk , the parallel distributed


iteration for minimizing the Augmented Lagrangian is given by

  c (t )
uk =arg min  f k (ς k ) + ∑ λ j ( t ) e jk ς k +
ς k ∈Pk  { j \ k∈I ( j )}  2

 
2
 1
        e jk (ς k − uk ) +
 nj  (
e j u − m j   , k ∈ I ( j ) ) (2.43)
  
The above parallel distributed algorithm for constrained condition can be
modified as the classical alternating direction method of multipliers.
Data Driven Model Predictive Control 23

2.2.4 Simulation example


Now we propose a simulation example to illustrate the nature of the above results.
In this simulation example, the unknown regressive structure is assumed as
follows
 0.1 
   y ( k=
) 0.1u ( k − 1) + 0.2u ( k − 2 ) + e ( k=) ( u ( k − 1) u ( k − 2))   + e ( k )
 0.2 

Setting regression vector as ϕ T ( k ) =( u ( k − 1) u ( k − 2 ) ) , and seeking an


explanatory interval predictor model of the form

y ( k ) = ϕ T ( k )θ ( k ) + e ( k ) , e ( k ) ≤ γ

In order to fit this above interval predictor model to the measured data,
we choose u(k) = cos(k) and collect N = 500 observations as the data sequence
DN = {ϕ ( k ) , y ( k )} . Choosing that size measurement as µ = γ + 0.8r, and
N
k =1
solving the linear programming problem by the Newton method on the basis of our
 0.1 
measured data DN = {ϕ ( k ) , y ( k )} , we obtain one optimal center θ = 
N

k =1
 0.18 
with bounded radius r = 0.2, and level of magnitude bound γ = 0.1. The resulting
interval predictor model is shown in Fig. 2.1, with the measured data clustered
 0.1 
around at the point θ =  .
 0.18 

Figure 2.1: Interval predictor


24 Data Driven Strategies: Theory and Applications

2.2.5 Conclusion
This section aims to reduce the gap among system identification, numerical
optimization and model predictive control. Model predictive control strategy
is considered from the system identification theoretical perspective, and the
numerical optimization theory is applied to solve the optimization problem, then
the optimal control input for model predictive control is obtained. An interval
predictor is presented to obtain new predictors to be used in the bounded error
identification case, then the midpoint of the interval predictor is used as system
output estimate. To obtain the minimum interval predictor, two optimal vectors
are derived to be piecewise affine forms. After introducing this system output
estimate into model predictive control, the property that controls input only exists
in its own cost function inspires us to use parallel distributed algorithms to solve
the unconstrained or constrained optimization problem.

2.3 Application of interval predictor model into


model predictive control
In this section, we continue to do deep research for the construction of the interval
prediction model and then apply it to the model predictive control strategy. The
contribution of the paper is two folds. First, after introducing the family of models
under study and some basic information about the interval predictor model, we
present the computational results for constructing the interval predictor model
using a linear regression structure, whose regression parameters are included in
a sphere. Given a size measure to scale the average amplitude of the predictor
interval, one optimal model that minimizes a size measure is efficiently computed
by solving a linear programming problem, our first contribution is to apply the
active set approach to solve this linear programming problem and then propose a
Newton iterative form for the optimization variables. Based on these optimization
variables, the predictor interval of the considered model with a sphere parameter
set can be directly constructed. Furthermore, as for a fixed non-negative number
coming from the size measure, we propose a good choice by using the Karush-
Kuhn-Tucker optimality conditions. Based on this constructed interval predictor
model, the midpoint of this interval predictor can be used as a central estimate,
then the prediction of the output value can be obtained by that central estimate.
The goal of model predictive control is to control the system to track a desired
output reference and reject disturbances. Moreover, the considered controller may
enforce input and output constraints. So after introducing that central estimate
corresponding to the prediction of the output value, such a control objective can
be formulated as a quadratic programming problem with an inequality constrained
condition. It is well known that the dual of the quadratic programming problem is
an unconstrained optimization problem [13]. After simple but tedious calculations,
we formulate those input and output constraints into a standard inequality form and
give a detailed process about how to derive the dual of the quadratic programming
Data Driven Model Predictive Control 25

problem. As the dual problem has a simple constraint set, so it is amenable to the
use of the Gauss-Seidel algorithm, whose convergence can be shown, if the step-
size parameter is chosen appropriately.

2.3.1 Interval predictor model


Interval predictor model returns an interval as output. The following concepts
can be seen in [14] and [15]. Define Φ ⊆ R n and Y ⊆ R be given sets, and they
are denoted as the instance set and outcome set. The interval predictor model is a
rule that assigns to each instance vector ϕ ∈ Φ a corresponding output interval. An
interval predictor model is a set valued map
I : ϕ → I (ϕ ) ⊆ Y
(2.44)
where φ is a regressor vector, I(φ) is the predictor interval, also I(φ) is called an
informative interval.
Consider the parametric model family M, thenq
output of a system is expressed
as y = M(φ, q), for some parameters q ∈ Q ⊆ R . Through selecting a feasible set
Q, an interval predictor model is obtained as the following relation:
         M = {y = M (ϕ , q ) , q ∈ Q ⊆ R
nq
} (2.45)
In a dynamic setting, at each time instant the instance vector φ may contain
past values of input and output measurements, then behave as a linear regression
function. From standard auto-regressive structures, a parametric interval predictor
model is derived.
        y ( k ) = ϕ T ( k ) θ ( k ) + e ( k ) , e ( k ) ≤ γ (2.46)
where y(k) and φ(k) denote the output measurement and regressor vector at time
instant k, θ ( k ) ∈ R n is the time varying unknown parameter, e(k) is the external
noise. But here any prior probability information of noise e(k) is unknown. We
only assume that noise e(k) is unknown but bounded and γ is its magnitude bound.
Assume time varying unknown parameter θ ( k ) ∈ R n satisfies
θ ( k ) ∈ ∆ ⊆ Rn
(2.47)
where ∆ is one assigned bounded set. Here we assume ∆ is a sphere with center
θ and radius r.
∆= θ + δ : θ , δ ∈ R n , δ ≤ r
{ } (2.48)
Combining equations (2.45), (2.46) and (2.48), the parameters indicating the
feasible set Q are the center θ and radius of sphere ∆, and the magnitude bound γ
on noise e(k).
Substituting (2.48) into (2.46), we obtain the output of the system.

( k ) ϕ T ( k )(θ + δ ) + e=
    y= ( k ) ϕ T ( k )θ + ϕ T ( k ) δ + e ( k ) (2.49)
26 Data Driven Strategies: Theory and Applications

Using the bounded radius r and magnitude bound γ, regression vector φ(k),
the output of the parametric model is one interval.

( ) ( )
   I (ϕ ( k ) ) = ϕ T ( k ) θ − r ϕ ( k ) + γ , ϕ T ( k ) θ + r ϕ ( k ) + γ 
 
(2.50)

Equation (2.50) is one interval model, it contains the output of the parametric
model y(k) with some guaranteed probability. When the observations are collected
in the data sequence DN = {ϕ ( k ) , y ( k )}k =1 , whether open or closed loop, the
N

following relation holds:


         y ( k ) ∈ I (ϕ ( k ) ) , for k =
1, 2 N (2.51)
where equation (2.51) means that the interval I(φ(k)) is consistent with a given
data sequence DN.
Observing the interval (2.50) again, we see that this interval is dependent
on three parameters – (θ, r, γ). So if these three parameters are identified, the
interval can be constructed based on equation (2.50). In order to obtain these three
parameters, one linear programming problem is constructed.
Introducing a size measure µ = γ + ar, where a is a fixed non-negative
number, the optimal model that minimizes µ can be derived by solving a linear
programming problem.
Theorem 2.5: Given an observed data sequence DN = {ϕ ( k ) , y ( k )} , a model
N
k =1
order n, and a size objective µ = γ + ar, three parameters used to construct the
optimal interval predictor model are computed by solving the following linear
programming problem with respect to three variables
θ ∈ Rn , γ , r

min γ + ar
θ ,γ , r

subject to ϕ ( k ) θ − r ϕ ( k ) − γ ≤ y ( k )
T


       −ϕ T ( k ) θ − r ϕ ( k ) − γ ≤ − y ( k ) , k =1, 2 N (2.52)

According to the linear programming problem (2.52), there are no any
references on how to solve it, so the main contributions of the next two sections
are to solve this linear programming problem and choose an appropriate fixed
non-negative number.

2.3.2 One choice of a fixed non-negative number


In linear programming problem (2.52), as the optimization variables r and γ
denote the radius of sphere ∆ and magnitude bound on noise e(k), so these two
optimization variables must satisfy that

r ≥ 0 and γ ≥ 0 (2.53)
Data Driven Model Predictive Control 27

Combining linear programming problem (2.52) and inequality constraints


(2.53), we rewrite the new linear programming problem as
min γ + ar
θ ,γ , r
subject to ϕ T ( k ) θ − r ϕ ( k ) − γ ≤ y ( k )

−ϕ T ( k ) θ − r ϕ ( k ) − γ ≤ − y ( k ) , k =1, 2 N

       r ≥ 0 and γ ≥ 0 (2.54)

Define the Lagrangian function L corresponding to the above linear


programming problem by

( )
L θ , γ , r , λ1 , λ2 , µk+ , µk− =γ + ar − λ1γ − λ2 r
N
(
− ∑ µk+ y ( k ) − ϕ T ( k ) θ + r ϕ ( k ) + γ
k =1
)
N
      
k =1
(
− ∑ µk− − y ( k ) + ϕ T ( k ) θ + r ϕ ( k ) + γ ) (2.55)

{ }
N
We refer to λ1 , λ2 , µk+ , µk− as the Lagrangian multipliers. By applying the
k =1
optimality KKT sufficient and necessary condition on Lagrangian function, then
some equality relations for the optimal solution hold.
∂L N
=∑ µk+ − µk− ϕ ( k ) =0
∂θ k =1
( ) (2.56)

N
∂L

∂γ
=1 − λ1 − ∑ µk+ + µk− =0
k =1
( ) (2.57)

N
∂L

∂r
=a − λ2 − ∑ µk+ + µk− ϕ ( k ) =0
k =1
( ) (2.58)


λ1γ 0,=
= λ2 r 0 (2.59)

(
µk+ y ( k ) − ϕ T ( k )θ + r ϕ ( k ) + γ =
0 ) (2.60)

         µ ( − y ( k ) + ϕ −
k
T
( k )θ + r ϕ ( k ) + γ ) =
0 (2.61)

Also as optimization variables r and γ denote the radius of sphere ∆ and


magnitude bound on noise e(k) respectively, if γ = 0, then that e ( k ) = 0 means no
noise exists in the standard auto-regressive structure (2.46). If r = 0, then sphere ∆
reduces to its center θ, so here for interval predictor model ,we want to satisfy that

r > 0 and γ > 0 (2.62)
28 Data Driven Strategies: Theory and Applications

When r and γ are all equal to zero, then I(φ(k)) is not an interval, but a fixed
output value. The midpoint of the interval predictor model is a central estimate
here.

ϕ T ( k )θ − ( r ϕ ( k ) + γ ) + ϕ T ( k )θ + ( r ϕ ( k ) + γ )
I (ϕ ( k ) )
= ϕ T ( k )θ
2
Comparing (2.59) and (2.62), we see that equation (2.59) holds unless
Lagrangian multipliers {λ1 , λ2 } must satisfy by

λ=
1 λ=
2 0 (2.63)
Further in equation (2.63), assume regression vectors ϕ (1) , ϕ ( 2 )ϕ ( N ) at
different instants are linearly independent. So in order to let equation (2.56) hold,
{ }
N
the µk+ , µk− need to satisfy by
k =1
+ −

µ=
k µ=
k µk =
, k 1, 2 N (2.64)
Substituting (2.63) and (2.64) into (2.57) and (2.58), we obtain the following
simplified forms
N 1
∑ µk =
 k =1 2
N
 µ ϕ k =a
∑ k ( ) 2
(2.65)
 k =1
From the idea of equation (2.65), one choice of this fixed non-negative

number a is given here. As 1 holds, we set µ = 1 . Then after


N
∑ µk = 2 k
2N
k =1
1 N
a
substituting µk = into equality ∑ µk ϕ ( k ) = , we have
2N k =1 2

1 a
        ϕ (1) + ϕ ( 2 ) +  + ϕ ( N )  = (2.66)
2N 2
It means that
1
       
= a  ϕ (1) + ϕ ( 2 ) +  + ϕ ( N )  (2.67)
N
Equation (2.66) is one of the choices of that fixed non-negative number a. As
regressor vectors {ϕ ( k )}t =1 and the number of data are given, so the form (2.67)
N

of a can be computed easily.

2.3.3 Newton method for interval predictor model


Because interval predictor model (2.50) is dependent on the linear programming
Data Driven Model Predictive Control 29

problem (2.54) with respect to three kinds of optimization variables {θ , γ , r} , so


the important step in constructing the interval predictor model (2.50) is to solve
that linear programming problem (2.54). First we rewrite the linear programming
problem (2.54) as its standard form. Define a new vector x ∈ R n + 2 as x = {θ , γ , r} .
Based on the new optimization vector x ∈ R n + 2 , the cost function in (2.54) can
be rewritten as
θ 
 
       γ=+ ar ( 0 1 a )= T
 γ  C x= ; CT ( 0 1 a ) (2.68)
r
 
Also each inequality can be rewritten as

 θ 
 T
(  
)
ϕ ( k ) θ − r ϕ ( k ) − γ ≤ y ( k ) ⇔ ϕ ( k ) −1 − ϕ ( k )  γ  ≤ y ( k )
T

 r
 

 θ 
 T
(  
−ϕ ( k ) θ − r ϕ ( k ) − γ ≤ − y ( k ) ⇔ −ϕ ( k ) −1 − ϕ ( k )  γ  ≤ − y ( k )
T
)
 r
  
 θ  θ 
  
 r ≥ 0 ⇔ ( 0 0 −1) 
γ ≤ 0, γ ≥ 0 ⇔ ( 0 −1 0 )  γ  ≤ 0 (2.69)
 r r
    
Define some matrices to merge all inequities in equation (2.69).

 0 −1 0 
  0 
 0 0 −1   0 
 ϕ T (1) −1 − ϕ (1)   
   y (1) 
      
= , B   
      A (2.70)
 ϕ ( N ) −1 − ϕ ( N ) 
T
 y(N) 
 T   
 −ϕ (1) −1 − ϕ (1)   − y (1) 
    
      
 −ϕ T N −1 − ϕ N   − y ( N ) 
 ( ) ( ) 

{ϕ ( k )}k =1
N
where A ∈ R(
2 N + 2 )×3
, B ∈ R(
2 N + 2 )×1
. Given regression vector and
output measured data { y ( k )} , the above two matrices A, B are known.
N
k =1
Applying two matrices A, B, all inequities in equation (2.69) are obtained in
a simplified form.
30 Data Driven Strategies: Theory and Applications


Ax ≤ B (2.71)
Then based on (2.68) and (2.71), the formal linear programming problem
(2.54) can be formulated into a standard linear programming form.
min C T x
 x
subject to Ax ≤ B (2.72)
Now we propose a Newton method to solve the above standard linear
programming problem. Our Newton method introduces the active set approach
into the classical Newton approach. The active set approach introduced here is
based on a transformation by means of which the optimality KKT conditions are
converted into a system of nonlinear equations.
Firstly for a fixed scalar c > 0, consider the open set Sc* ⊂ R 2 N + 2 × R 2 N + 2
defined by
        Sc* = {( x, m ) / m j + cAj x, j= 1, 2 2 N + 2 } (2.73)
where Aj is the j column of matrix A, and the system of equations on Sc*.

C + ∇ x g ( x, m, c ) m = 0
+

 +
 g ( x, m, c ) = 0
(2.74)

where the function g ( x, m, c ) is defined by


+

 g1+ ( x, m1 , c ) 
  +
g + ( x, m, c ) =   (
 ; g j x, m j , c )
 + 
 g 2 N + 2 ( x, m2 N + 2 , c ) 
 mj 
       = max  A j x, −  , j= 1, 2 2 N + 2 (2.75)
 c 

Note that g+(x, m, c) is differentiable on Sc* as Ax – B, so equations (2.74), (2.75)


are well defined. g+(x, m, c) appears in the definition of the augmented Lagrangian
function, which takes the form as
1 2
Lc ( x, m, c ) =
C T x + m′g + ( x, m, c ) + c g + ( x, m, c )
2

Secondly consider the implementation of Newton approach. Define for


( )∈ Sc* .
x , m
L+ ( x, m=
, c ) C T x + m′g + ( x, m, c )
 mj 
( x, m )  j / A j x − B j > −=
      Ac = , j 1, 2 2 N + 2  (2.76)
 c 
Data Driven Model Predictive Control 31

Assume without loss of generality that Ac ( x, m ) = {1 p} for one integer p.


This integer p depends on x and m. We view Ac (x, m) as the active index set, in
the sense that indices in Ac (x, m) are predicted by the algorithm to be active at
the solution. By differentiation in equation (2.74), we propose that the Newton
method consists of the iteration
x = x + ∆x, m = m + ∆m
(2.77)
where ( ∆x, ∆m ) is the solution of the following system:

 ∆x  {
C + ∇ x m′g + ( x, m, c )

}
 ∆m   
 2  1  g1+ ( x, m, c )
{
∇ xx m′g ( x, m, c )
+
} N ( x, m, c ) 0   

 


  
 N ( x, m, c ) 0 0   ∆m p  = −  g p ( x, m, c )
+ 

 1   ∆m p +1   
 0 0 − I   g +p +1 ( x, m, c ) 
 c       
 ∆m   
 2N +2   g 2 N + 2 ( x, m, c )
+

(2.78)
where N (x, m, c) is the (2N + 2) × p matrix having as columns the gradients
A j , j ∈ Ac ( x, m ), I is the ( 2 N + 2 − p ) × ( 2 N + 2 − p ) identity matrix, and the zero
matrices have appropriate dimension. Since we see that
mj
g +j ( x, m, c ) =− , ∀j ∉ Ac ( x, m )
c
It follows that
m j = 0, ∀j ∉ Ac ( x, m )

It follows from equation (2.78) that the remaining variables ∆x and


∆m1  ∆m p are obtained by solving the reduced system.

 ∆x  C + ∇ x m′g + ( x, m, c )

{ }

{ }
∇ 2xx m′g + ( x, m, c ) N ( x, m, c )   ∆m1 
   
= − A1 x − B1 
(2.79)
   

 N ( x, m, c ) 0 
   

∆m
 p   Ap x − B p 
 
where we make use of the fact that
g +j ( x, m
=, c ) g j ( x ) , ∀j ∈ Ac ( x, m )
C+ ∑
∇ x L+ ( x, m, c ) =
        (A j − Bj ) mj (2.80)
j∈ Ac ( x , m )
32 Data Driven Strategies: Theory and Applications

From above equations, we see that the proposed Newton iteration can be
described in a simpler manner.

2.3.4 Application interval predictor model into model


predictive control
In this section, we start to apply the above obtained interval predictor model into
model predictive control strategy. Set the optimal variables corresponding to the
linear programming problem (2.52) as follows: θˆ, γˆ, rˆ
(
Then based on these three optimal variables θˆ, γˆ, rˆ , the interval predictor )
model I (ϕ ( k ) ) is defined as

( )
    I (ϕ ( k ) ) = ϕ T ( k ) θˆ − rˆ ϕ ( k ) + γˆ , ϕ T ( k ) θˆ + rˆ ϕ ( k ) + γˆ 
  ( ) (2.81)

Then from the probability theory, the predictor of output value will be
included in this confidence interval with one guaranteed accuracy, i.e.
         y ( k ) ∈ I (ϕ ( k ) ) , ∀ k =0,1, 2 N (2.82)

2.3.4.1 Model predictive control problem


As the goal of model predictive control is to control the system in order to track a
desired output reference and reject disturbances from k = 0 up to some finite time
step N, where this time step N can be very large.
Assuming that the control input u ( l ) , l =−1, −2, are known, then a control
objective can be formalized by one optimization problem.
N
T
min
u ( 0 ),u (1)u ( N )
∑  y ( k ) − ydes ( k ) Q1  y ( k ) − ydes ( k )  + uT ( k ) S1u ( k ) (2.83)
k =0

where ydes(k) is the desired output reference, Q1, S1 are positive semi-definite
weighting matrices selected by the designer. Observing (2.82) and (2.83), the
predictor of output value y(k), k = 0, 1, 2 … N exists in cost function (2.83), but
the only knowledge about the predictor of output value is that y(k) is included in
confidence interval I(φ(k)), so there are two cases to be considered here. One case
is to expand the cost function (2.83), then a numerical value about y(k) is needed
to substitute into cost function, i.e. the midpoint of that confidence interval can be
used as the prediction of output value y(k).

ϕ T ( k )θˆ − ( rˆ ϕ ( k ) + γˆ ) + ϕ T ( k )θˆ + ( rˆ ϕ ( k ) + γˆ )
I (ϕ ( k ) ) = ϕ T ( k ) θˆ (2.84)
2

Replacing y(k) as ϕ ( k ) θˆ into cost function (2.83), we obtain an explicit


T

form corresponding to optimization problem.


Data Driven Model Predictive Control 33

N T
min
u ( 0 ),u (1)u ( N )
∑ ϕ T ( k )θˆ − ydes ( k ) Q1 ϕ T ( k ) θˆ − ydes ( k )  + uT ( k ) S1u ( k )
k =0
(2.85)
The second case is to use confidence interval I(φ(k)) into the optimization
problem directly, but another max operation is added, i.e. a robust model predictive
control problem is obtained.
N
T
min max ∑  y ( k ) − ydes ( k )  Q1  y ( k ) − ydes ( k )  + uT ( k ) S1u ( k )
u ( 0 ),u (1)u ( N ) y ( k )∈I (ϕ ( k ) )
k =0

(2.86)

Here, we only consider the first case (2.84) and the second case (2.85)
corresponding to a robust model predictive control problem will be solved later.
Further, the controller will satisfy input and output constraints as
umin ≤ u ( i ) ≤ umax
 i = 0,1 N (2.87)
 ymin ≤ y ( i ) ≤ ymax
Combining (2.85) and (2.87), the model prediction control problem is
formalized by the following optimization problem with inequality constrained
condition.
N T
min
u ( 0 ),u (1)u ( N )
∑ ϕ T ( k )θˆ − ydes ( k ) Q1 ϕ T ( k ) θˆ − ydes ( k )  + uT ( k ) S1u ( k )
k =0

umin ≤ u ( i ) ≤ umax
subject to 
i = 0,1 N (2.88)
 ymin ≤ y ( i ) ≤ ymax

where umin, umax and ymin, ymax denote the lower and upper bounds on input and
output respectively. Before solving the optimization problem (2.88), we analyze
the cost function and inequality constrained condition in (2.88). The second term
in cost function can be rewritten as

 S1 0  0   u ( 0 ) 
0 S  0  u 1 
  ( )  uT Su
N
∑ uT ( k ) S1u ( k ) u ( 0 ) u (1)  u ( N )  
=
1
       
k =0
  
 0 0  S1  u ( N ) 
(2.89)
where vector u and matrix S are defined as
T
u u ( 0 ) u (1)  u ( N )  , S diag ( S1 S1  S1 )
=
It means that vector u includes all optimal input at all time step i, i = 0, 1…
N. The first term in cost function can be also reformulated as
34 Data Driven Strategies: Theory and Applications

N T
min
u ( 0 ),u (1)u ( N )
∑ ϕ T ( k )θˆ − ydes ( k ) Q1 ϕ T ( k ) θˆ − ydes ( k ) 
k =0
N N
∑ ϕ T ( k )θˆQ1ϕ T ( k )θˆ − 2ϕ T ( k )θˆQ1 ydes ( k ) + ∑ ydes ( k ) Q1 ydes ( k )
T
=
k 0=k 0

N
T
As no input u(i) exists in term ∑ ydes ( k ) Q1 ydes ( k ) , then this term can be
k =0
omitted. For clarity of presentation, set the control inputs u ( l ) , l =−1, −2, N be
zero, if not, we use coordinate transformation to satisfy it. Due to θˆ ∈ R n , then
regressor vector ϕ ( k ) and θˆ can be defined as follows.

 T
ϕ ( k ) =u ( k − 1) u ( k − 2 )  u ( k − N ) 
 T
θˆ = θˆ1 θˆ2  θˆN 
  
From above descriptions, the following relations hold:

 θˆ1 
 
 θˆ 
ϕ T ( 0 )θˆ =u ( −1) u ( −2 )  u ( − N )   2  = 0
  
θˆ 
       N

 θˆ1   θˆ1 
   
ˆ  θˆ2   θˆ 
ϕ (1)θ = u ( 0 ) u ( −1)  u (1 − N )    = u ( 0 ) 0  0   2 
T

     
θˆ  θˆ 
 N  N
1 0  0  θ1  ˆ 
0 0  0  ˆ 
u ( 0 ) u (1)  u ( N )  
=   θ 2  uT I θˆ
     1
   
0 0  0  θˆN 

 θˆ1 
 
 θˆ 
ϕ T ( 2 )θˆ = u (1) u ( 0 )  0   2 
  
θˆ 
 N
Another random document with
no related content on Scribd:
pázsiton s virágokon keresztül egyenesen feléjük vevé útját. Az
öreg, ki fiát megölelve e szavakat mondhatá: – Hallod fiam, ez neked
szól – nem magyarázhatá meg a történteket, midőn – Éljen Kislaky
Kálmán és angyali mátkája, Réty Etelka kisasszony! – harsogott az
ég felé s minden beszélgetésnek véget vetett.
Kálmán s maga Ákos annyira meg valának lepve, hogy első
pillanatban nem tudák, mit tegyenek. De midőn az ispán szívrázó
bassusával fölkiált: – Vigyük az úrfit Etelka kisasszonyhoz, szeretett
szolgabiránénkhoz – s midőn egyszerre tíz kéz nyul a boldog
szerető felé, őt lábáról föl akarva emelni, Kálmán magához tért
bámulásából s védni kezdé magát. Kérni akart, káromkodott, maga
az öreg Kislaky, ki fiát Etelkának bemutatni s nem kikiáltatni akará a
házasságot, elkövetett mindent, hogy Etelka neve az ovátióból
kihagyassék, mind hasztalan! Háromszáz sz.-vilmosi torokkal csak a
végítélet trombitája versenyezhetne s beszéd nem használván,
kézre került a dolog. Kálmán a nagy vonzalom ellenében visszalökő
erejének egész hatalmával dolgozott s nem mondhatni, hogy
derekas benyomást ne tett volna sok érte lángoló sz.-vilmosi
kebelre, minek azonban csak annyival vala szavánál több hatása,
hogy szép átilája széttépetett s egy palaczk vörös bor, mely feléjé
nyujtatva széttört, a küzdőt tetőtől-talpig leönté, ki most ég s föld
között lebegve, hat markos legény vállain hasztalan gyakorlá ökleit
és sarkantyúit, az előbbi kiáltások között egyenesen kedvese
szobájához czipeltetett.
A zajra a vendégek a ház előtt összegyűltek s hallva Etelka s
Kálmán nevét, egy része bámult s más része gratulálni kezde. Az
alispán zavarában mosolyogva hajtogatá s csóválá fejét, hogy
mozdulatai se igen, se nemnek ne magyaráztathassanak; az
alispánné, kinek szerencséjére a tisztujítás s a Kislakyak befolyása
jutott eszébe, mondá, hogy az egész tévedés s hogy erről még szó
sem vala; Karvaly pedig a kiáltókhoz csatlakozva, hatalmas szavával
hirdeté a szép pár dicsőségét, melynek sz.-vilmosi tisztelői már
Etelka ajtajához értek s küszöbe előtt a levegőben tánczoltaták
szerencsétlen imádóját.
Kálmán magán kívül volt. Így jelenni meg kedvese előtt, kitől még
előbbi hibáiért engedelmet kelle kérnie, széttépett átilával, borral
leöntve, háromszáz nemestárs karjai között, – ki nem érezné e
helyzet kinait? Kért, sirt, káromkodott, mindent egyszerre s mindent
legkisebb siker nélkül; szerencséjére azon istennő vagy angyal, mely
a való szerelmet pártolja, úgy intézte a dolgokat, hogy Etelka helyett
csak szobaleánya volt szobájában s így a tisztelgő csapat csak a
piruló Rózsi s a nagyreményű sz.-vilmosi jegyző előtt, ki bizonyosan
véletlenül ott volt, ordíthatta el jó kívánatait.
Azon boldogság után, melyet kedvesünk látásán érzünk, a
legnagyobb – mint egy szerelemben megőszült ismerősömtől hallám
– bizonyosan az: ha némely helyzetekben szivünk bálványával nem
találkozunk; s nincs, ki ezt valaha inkább érezte volna, mit Kálmán e
pillanatban. Ákos, kit nővére nevének kiáltozása boszantott, hogy
ennek véget vessen, figyelmetessé tette a tisztelt gyülekezetet, hogy
minden szolgabirónak esküdtre is van szüksége s hogy e hivatalra
alkalmasabb egyén nincs e világon Pennaházy Bandi jegyzőnél, ki e
szavak után, rémséges kiáltások között, Rózsi helyett a
közvélemény által felkarolva, jövendő szolgabirájával együtt az
udvarra vitetett, hogy ott az alispán előtt bemutattassék, ki
mindehhez szüntelen mosolyogva, csak tökéletes helybenhagyását
jelenté ki.
Önigazolásomra – ha olvasóim közt valaki az által, hogy a sz.-
vilmosi jegyzőt Rózsinál találtuk, a valószinűség törvényét talán
sértve látná – csak azt mondhatom, hogy, ha nem is mint Hegel
hiszi: minden a mi van, az jó, – legalább minden, a mi való,
közönségesen valószinű is s hogy Rózsi fekete szemei s Pennaházy
szőke pödört bajsza oly neműek valának, hogy miután Sz.-Vilmoson
– honnan Rózsi jó nemes házból származott – többször találkoztak,
csak természetes, hogy Tiszaréten fölkeresék egymást; főkép
miután – ha az említett fekete szemek s szőke bajusztól
elvonatkozunk is – kellemesebb két egyediséget alig találhatni.
Rózsi, ki asszonyával Pesten létekor magyar szinházba járt, több új
s régibb zsebkönyvet olvasott, sőt néhány verset könyv nélkül is
tudott, azon míveltebb szobaleányok közé tartozott, kik, mert
közönségesen uraságuk viselt ruháiban járnak s ugyanazt beszélik,
mit úrnőiktől hallottak, szinte kisasszonyoknak látszanak; s
Pennaházy, ki egy hosszú országgyűlés alatt a hallgatók között
hatalmas szavával majd éljenezve, majd más kijelentések által élénk
részt vett a legfontosabb tanácskozásokban s rejtett szavakkal
gyönyörködteté a Nemzeti Ujság olvasóit, ismertebb, minthogy
érdemeiről szólanom kellene. Föl is jegyeztem volna az érdekes
beszélgetést, melyben e két szeretetreméltó személy a kortesek által
meglepetett, ha országos dolgok leirása nem várna reám s e
beszélgetés, minden gyönyörei mellett, nem lett volna különösen –
szótalan.
Olvasóim, kiknek nagy része kétségkívül tudja, mi kellemetlen
minden hölgynek s főkép szobaleánynak, ha valamely férfival
magánosan találtatik, képzelhetik a zavart, melylyel Rózsi annyi férfi
jelenlétében eltelt; miután azonban kedves jegyzőjét a kortesek
vállain mindjárt Kálmán mellett látá s hallá a közbizodalom szavát,
mely őt esküdtségre jelölte ki: megnyugodott sorsában, sőt
kevesebb fájdalommal látá karjaiból kiragadtatni bálványát, mintha
az tulajdon lábain ment volna el tőle. Csendesen összetakarítá a
szobát, mely a kortesek által kissé rendetlenségbe jött és sóhajtva,
hogy Pennaházy még esküdtté s ő Pennaházynévá nem vált, a
kávés konyhába készült, midőn a mellékszoba ajtajának nyilása
vonta magára figyelmét.
E szoba Macskaházyé vala s Etelka szobájával ugyanazon
folyosóra nyilt.
Rózsi a küszöbön állt meg s világosan hallá Macskaházy szavát,
ki ajtaját kulcscsal bezárva, midőn távozott, így szólt valakihez: –
Pontban hét órakor a jegyző kertje mellett.
– Ott leszek thekhinthetes uram! – felelt a másik hang, mely
szinte keleti, noha nem magyarnak látszott.
– A jutalmat ismered – válaszolt Macskaházy s a két beszélgető
együtt elment.
– Jaj nekem! – szóla végre az elrémült szobaleány, midőn a
távozók léptei a folyosó kövezetén nem hallatszottak többé, –
Macskaházy szobájában volt s mindent hallott, mert olyan füle nincs
senkinek a világon. – Talán csak nem szól a nagyságos asszonynak!
S ezzel bezárva ajtaját, s fogai közt szidva az ügyészt zsidójával
együtt, eltávozott.
S most kedves olvasóim, habár néhánynak köztetek Rózsi
társasága kellemesebbnek látszanék is, fontosabb dolgok hívnak. Az
alispán hat órára conferentiát hirdetett, az óra közelg, menjünk a
terembe.
IX.

Létezik e hazában – okát nehéz volna föltalálni, de a tény


tagadhatatlan – létezik e hazában bizonyos összeköttetés az ebéd s
a politika között. Én legalább azt tapasztaltam, hogy valamint jó
szakácscsal ellátott s vendégszerető táblabirák soha politikai
befolyás nélkül nem maradnak, úgy országos dolgokról való
tanácskozásra mindig oly helyek szoktak választatni, hol minden
szék mult vagy jövő ebédekre int; s ezért ha van nemesség, mely
érdemes, hogy a római partriciatushoz hasonlítassék, nézetem
szerint csak a magyar az, kire Menenius Agrippa azon beszéde,
melyben a senatust az állam gyomrához hasonlítá, egészen
alkalmazható. Ez történt itt is, s a tanácskozmány szinhelyéül az
ebédlő jelöltetett ki, mely azonban most egészen más alakban áll
előttünk. A nagy asztalt a hófehér abrosz helyett zöld posztó takarja,
palaczkok s poharak helyén nagy tentatartók állnak, minden szék
előtt tányér helyett egy-egy ív papir, s ha a szoba falai s a kedves
káposztaszag nem maradnak e teremben, mely most ezüst
kargyertyákkal világítva áll előttünk, alig ismernénk azon helyre, hol
pár órával ezelőtt annyi lárma s felköszöntés hallatszott.
Most a kandalló körül, az ablakokban s pamlag mellett, hol az
alispánné ült, az egész társaság kis körökre oszolva csendesen
beszélgetett. Magok a családképek, melyek a falon függtek, úgy
látszik, méltóságosabban néznek le az új nemzedékre, mint az ebéd
alatt, s midőn a család egyik legnagyobb férfia, ki Rákóczy alatt
kapitányoskodva, 1715 után, jeléül miként tiszteltetett mindkét
részről, donatiót kapott, a vastag Réty Jeromos annyi étvágygyal
látszott lenézni boldogabb utódaira, hogy szinte megsajnáltuk; az
alispán édes apja pedig, a kamarás, ki magát, nem tudom miért,
hátulról, midőn épen visszanéz, festette, bajsztalan arczával, a
háromszegű kalappal hóna alatt, s a kis békanyúzóval oldalán egy
csöppet sem emlékeztetett azon férfias erőre, melyet költőink az
erős apák korában keresni szoktak.
Azokon kívül, kiket olvasóim a tornáczon az alispán úrral már
láttak, a teremben számos társaságot találunk. Mindenek előtt két
lelkész áll előttünk, kiknek egyike talán valamivel vastagabb, másika
valamivel szárazabb, mint hivatala kívánná, de kik mint egyházi
szónokok, főkép tisztujításoknál, hol a vallás, mint tudjuk, oly nagy
szerepet játszik, egyaránt kitünők. Utánok négy vagy öt táblabiró s
három szolgabiró, kiket leirni fölösleges, mert hála az égnek! a
táblabirói s szolgabirói hivatal jellemző különbségeit olvasóim
ismerik. Az ajtó mellett pár esküdt, Pennaházy s egy tiszteletbeli
aljegyző, kullogtak; a szobában néhány uradalmi ügyész járt
alázatosan körül, s a szegény rokonok – egyet kivéve, ki az ebéd
következtében valahol ledőlt s eddig elő nem került – mint szegény
rokonokhoz illik, inasi szolgálatokat teljesítve sietnek fel s alá.
Az ablakok egyikében a társaságtól elkülönözve, s mint látszik,
igen érdekes tárgyakról beszélgetve, három férfi áll, kik, mihelyt a
szobába lépünk, figyelmünket magokra vonják.
E férfiak egyike, ki fölpedert fekete bajuszszal s fölfelé fésült
hajakkal annyi méltósággal emeli fejét, mintha keveselve ölnyi
magasságát, még nagyobbnak akarna látszani: Slacsanek úr, gr.
Kővárynak, e megye legnagyobb birtokosának, teljes hatalmu
igazgatója, mely czimet Slacsanek úr csak szerénységből tartja meg,
miután az, ki, mint ő, valamiről szabadon rendelkezik, s a
jövedelmek nagyobb részét szedi, joggal birtokosnak is nevezhetné
magát.
A kis köpczös emberke, ki e nagy férfiú mellett áll s szüntelen
beszél, vagy legalább időről-időre fejét hajtogatva s kezeivel
helybenhagyást intve egyes szavakban mint: persze, majd, bizon,
ejnye, ki hitte volna! stb. részt vesz a beszélgetésben, nem más,
mint báró Sóskuty ő nagysága. Valódi gavallér, mint az asszonyok
hirdetik, Magyarország legderekabb mágnása, a férfiak ítélete
szerint, kinek társaságában senkinek eszébe sem jut, hogy
mágnással van dolga, oly annyira, hogy a debreczeni vásár alatt
egyszer csakugyan szappanosnak tartották. Tiszteletre méltó férfiú,
kit németül kevesen, francziául soha senki szólni nem hallott, s kinek
conservativ elvei, melyekkel e haza dolgaihoz szólt, annyival inkább
dicsőségére szolgálnak, mennyivel inkább látjuk, hogy mi személyét
illeti, az ősi javakhoz épen nem ragaszkodik. A báró mintegy hatvan
éves lehetett; egykor – meg kell vallanunk – vörös haja fejéredni
kezdett, s e pirosság élete alkonyán, mint ilyenkor szokott, lejebb
szállva jelenleg oly szépen égett arczain, hogy rózsákhoz
hasonlítanám, ha ez uj hasonlatosságot nem kellene azon alkalomra
eltennem, ha majd a szépnemről szólok.
Hogy ily férfiak társaságában – melyeknek egyike valóságos
mágnás, másika még valamivel több, azaz igen gazdag gróf
uradalmi igazgatója, ki tisztujításoknál közel ezer szavazatról
rendelkezik – oly ildomos férfiú, mint Krivér főjegyző, csak
alázatosan viselheté magát; hogy arczán csak a szerénység s
tisztelet azon ájtatos mosolygását látjuk, melylyel némely szentek
festetnek; hogy teste nem tehetett mást, mint hajlongani, ajkai nem
mondhattak egyebet mint: mennyire megtisztelve érzi csekély
személyét és ha kegyesen megengedni méltóztatnának… azt bölcs
olvasóim át fogják látni; ki pedig ennyi nyájasságot főjegyzőben
sokallana, annak magyarázatául mondhatom: először, hogy Krivér
másod alispánná akar választatni, másodszor, hogy általán véve
önmagát megalázni második természetévé vált. A főjegyző azon
emberek közé tartozott, kik politikai pályájukat mint nagy urak irnokai
vagy titoknokai kezdik, s később is azok iránt, kiktől valamit várnak,
annyival több alázatosságot tartanak meg, mennyivel kevesebbet
használnak föl e keresztyén erényből azok között, kik allattuk állnak.
Irva áll: ki magát megalázza, föl fog emeltetni, s miután Krivérnek ép
ez vala kívánata, tudván, hogy tisztujításoknál emeltetés nélkül
semmire sem lehet menni (mert ez egy napon a nemesség maga
fölött akarja látni tisztviselőit) az irás idézett szavai szerint elkövetett
mindent, hogy czélt érjen.
– Hát csakugyan bizonyosan tudja a teins úr – szólt Slacsanek a
főjegyzőhöz, – hogy az a szerencsétlen Veszősy is a Bántornyiakhoz
szegődött?
– Bizonyosan, Domine spectabilis, fájdalom – bizonyosan!
– Hát nem mondtam mindíg – vágott közbe a báró – nem
mondtam ezerszer, hogy Veszősyhez semmi bizalmam? Most három
éve, mintegy tizennégy nappal lehetett a tisztujítás előtt, délután volt,
ha nem csalódom pénteken, mikor a teins úrral a kávéház előtt
találkoztam. Többen voltak ott, in specie, néhány katonatiszt. Én
pipára gyujtottam s oda ültem a teins úr mellé a zöld padra a sátor
alatt; bizony Domine Spectabilis, mondtam én, az a Veszősy – –
– Teljesen igaza volt méltóságodnak – – de –
– Az a Veszősy – mondtam én – liberalis és a mi még rosszabb,
olyan, ki mindig elveiről szól, vagyonos ember és – –
– Igaz, igaz – szakítá félbe a neki tüzesedő bárót Slacsanek – de
Veszősy hatalmas ember, hiba, hogy azzá tettük, s hogy ép oly
járásban állítottuk főbirónak, melynek legtöbb szavazata van, de – –
– Azt akarja mondani teins ur – folytatá a báró, ki három «úgy
van»-nal fűszerezé az előbbinek beszédét – talán magunkhoz
keríthetjük? Nemde el kell csábítani őt? Ez az egész titok. Tudják-e a
teins urak, mit? Én a járásban lakom, majd vadászatot adunk, a
törvény értelme szerinti farkas-vadászatot. A parasztoknak hajtani
kell, önök mind eljőnek, neki is mint szolgabirónak jelen kell lennie,
mert persze ha csak nyulakat lövünk is, præsuppositione juris
farkasok ellen vadászunk és akkor majd – mint mondám, a
szolgabirónak is jelen kell lennie – körülkerítjük. Én tudok egy módot
– először – –
– Igen – sóhajta közbe szomorú képpel a főjegyző – ha a fiatal
báró, kinek még több befolyása van a megyére mint nagysádnak,
nem volna ellenünk.
– Az átkozott gyerek – mondá a báró fejét csóválva – hányszor
nem mondtam pedig neki: fiam Bálint – –
– Talán ha méltóságod apai hatalmánál fogva –
– Helyes, tökéletesen igaza van barátom uramnak; apai
hatalmamnál fogva én a gyereknek mindent parancsolhatok. Mi
mindenkor egy értelemben vagyunk s a fiú mindenben
engedelmeskedik, nem is javasolnám, hogy mást tegyen; de ép ez
egyben – –
– De csak épen ebben méltóztatnék a méltóságos úrfinak
engedelmeskedni – vélekedik Krivér.
– Igaza van amice! igaza! Én a fiút még kitagadom, valósággal
kitagadom.
Slacsanek, ki tudá, miként a báró földi javai nem oly nagyok,
hogy elvesztésök veszélye valakire nagy hatást gyakorolhatna, vagy
kinek talán eszébe jutott, hogy kitagadásra előbb az öreg báró halála
szükséges, mire tisztujításig az időt kevesellé, más módokat
javasolt. Mire a báró válaszolá, hogy ő sok módokat tud. – Az első
mindjárt: ha megházasodnék; nem hiszi a teins úr, mennyi hatása
van ennek az emberre, főkép a mi családunkban! Mielőtt én
megházasodtam, nem volt szabadelműebb ember három megyében
és most – – no de a fiú nem akar házasodni; – hallatlan! de nem
akar házasodni.
– Hát ebben a járásban hogy’ állunk? – kérdé Slacsanek ismét a
főjegyzőhöz fordulva, midőn látá, hogy a forrás, melyből a báró
beszédje most foly, alkalmasint fölötte bőnek mutatkozik.
– Itt is csupa veszedelem, ellenünk van először Tengelyi.
– Tengelyi! – kiáltott a báró – Tengelyi! egy falusi jegyző, no nagy
dolog! Tengelyi? s hány Tengelyi kell, hogy velünk a tisztujításnál
szembeszálljon?
– Csak épen egygyel több, mint mi magunk vagyunk – válaszolt a
nagy director; – a szavazatok, fájdalom, számoltatnak, s nem
mérlegeztetnek, s én kevés hatalmasabb ellenséget ismerek a
jegyzőnél.
A báró elégedetlenül csóválá fejét. Krivér folytatá:
– Maga Ákos, ha nem tesz is semmit nyiltan ellenünk, de
mellettünk sem.
– Ecce – vágott közbe a báró – fiam példája, ismét egy rossz
gyermek, ki nem apját akarja alispának; mondom est ad – –
– Csak a Kislakyak maradjanak, akkor a járást nem féltem.
– Igen, de a Kislakyak is bizonytalanok – mond ismét a jegyző, –
Kálmán anyjának parancsol, anyja apjának, s ez az egész járásnak;
s félek, mióta gróf Havasy e házhoz jött, Kálmán elégedetlen.
– De a mai történet, hisz Etelka mátkájának kiáltatott ki.
– Igen a kortesek által; és én tudom – tevé hozzá halkabban a
főjegyző, – nem mondom ugyan egész bizonyossággal, de nekem
úgy látszott, mintha az egész az alispánnénak nem egészen inyére
lenne.
– Igaza van – szólt a báró hangosabban, – magamnak is úgy
látszott, ép az alispánné mellett álltam, s az időről beszélgeténk,
mikor a kortesek Kálmánnal jöttek. Kedves nagyságom, mondám én,
midőn a kiabállást hallám – –
– Vigyáznunk kell – szólt Slacsanek, kinek a báró az egészet úgy
is már kétszer elmondá – mert bizony rosszul állunk.
– A mi engem illet – válaszolt alázatosan mosolyogva Krivér – a
teins úr ismeri buzgóságomat, azért legalább jót állok, hogy az
ellenfél táborában semmi történni nem fog, miről pártunkat nem
tudósítom.
– És ki az ellenfél terveit ismeri – szólt a báró vigan összecsapva
kezeit, – az félig megnyerte a csatát.
– Oh csak csupa ily nemesek volnának megyénkben, mint a
mieink! – sóhajta Slacsanek úr. – Ha nem úgy szavaznak, mint
akarom, elveszem földjeiket, s azután koldulni mehetnek új
alispánjokhoz, ilyenek már arra valók, hogy velök restauráljon az
ember.
Az érdekes beszélgetés az alispán által szakasztatott félbe, ki az
egész társaságot, melyből immár senki sem hiányzott, az asztalhoz
hivá, hol a conferentiának kezdődni kelle.
Magyaroknak irok, s miután e hazában alig van, ki gyűlést nem
látott volna, s még dámáink is egy idő óta szivesen eljárnak
üléseinkbe, hol hazai dolgainkra kissé más módon nézhetnek le,
mint különben tenni szokták, nem szükséges, hogy ez ünnepélyes
jelenet hosszasabb leirásába ereszkedjem. Egy ülés a másikhoz
hasonló. Középen zöld asztal. Körülte néhány táblabiró, kiknek
némelykor véleményeik, többnyire érdekeik homlokegyenest
ellentétben állnak; míg a nagyobb rész, érdek nélkül firkálva előttük
fekvő papirosokon, csak azért vesz részt a tanácskozásban, mert a
zöld asztalnál ülni dicső, s mi több:

Egy kis ülés a hazáért,


Meg nem árt;

vagy legalább sokkal kevesebbé, mint ha érte dolgozunk; ez képe


majdnem minden üléseinknek, s habár az, melyre a táblabirói kar
Réty házában összegyült, más gyűlésektől annyiban különbözött,
hogy minden lárma- s zavar nélkül ment végbe, a nagyságos
asszony jelenléte ezt természetessé teszi.
Miután az ülés Réty által szokás szerint megnyittatott, ő maga
első, Krivér főjegyző második alispánnak közakarattal kijeleltettek, s
minden jelenlevőnek, mint ily conferentiáknál szokás, vagy maga,
vagy valamely közel rokona számára hivatal igértetett, báró Sóskuty
pedig minden választandó tisztviselő fölött hosszú magasztaló
beszédet mondott, melyet csak az nem tartott remeknek, kiről benne
szó nem volt, azon módok kerültek most szőnyegre, melyek által a
szükséges többség megszerzendő.
Minthogy e tárgyban teins Sáskay úr oly jeles ismereteket
szerzett magának, s ez iránti nézeteit irásba foglalni sziveskedett, az
elnök véleménye szerint czélirányos volna a tisztelt urat e jeles
munka fölolvasására kérni; mire az indítvány elfogadtatván, ez nem
kevés köhécselés s mentegetődzés után megkezde előadását, mely
alatt Karvaly, hihetőkép, hogy megvetését mutassa, szemeit
behunyá, sőt később hortyogni is kezdett.
Előttem fekszik az egész munka, melynél, büszkén mondom,
kevés kitünőbb angol reportot ismerek, s mely ugyanazon formában
szerkesztve, mint ezek, Sáskay úrnak örök dicsőségére szolgál. De
nehogy olvasóim, főkép azoknak szebbik neme, e könyvet eddig
olvasva, Karvaly példáját kövessék, s mi irónak legiszonyúbb
csapás, szép szemeiket hibáim fölött behunyják: én csak azokat
szedem ki az irott tizenkét ívből, mik közelebbről a megyét illetik.
– Szokásban van Angliában – így kezdé fölolvasását Sáskay, kit
az angol nemzet tiszteletében senki fölül nem mult, – hogy mielőtt
valamely tárgy a parliament tanácskozásai alá kerül, annak
megvizsgálása előbb mindig néhány férfira bizatik, hogy az iránti
véleményöket tanácskozási könnyítés végett egy úgynevezett
reportban beadják. Ez az út, melyet ő is követni akar, pedig tizenkét
okból, melyeknek csak utósóját említjük mint legfontosabbat, mely
az angol s magyar alkotmány közti hasonlóságban fekszik.
A két alkotmány közötti rokonság tény, melyen, hazánkban
legalább, kevesen kétkednek, s habár az angol s a magyar magna
charta, némelyek szerint csak úgy hasonlítanak is egymáshoz, mint
némely nagyobb családokban az idősb s fiatalabb testvérek, kik
közül az első minden értéket, a másik csak fényes czimet bir örökül:
ki tagadhatja, hogy mindkettő a tizenharmadik század gyermeke,
hogy a hét évvel fiatalabb magyar nagy levél szinte nem sokkal jobb
király által adatott ki, mint minő az angol földetlen János vala, s hogy
némely kicsiségeken kívül, minő például: sajtószabadság,
esküdtszékek, ministeri felelősség, jogegyenlőség stb. egyéb
fődolgokban nincs, mit az angoloktól irígyelhetnénk. Gazdag
clerusunk, az irott s nem irott jog közötti különbség, pereink
hosszúsága, ügyvédeink drágasága, biróink hatalma, sőt csak
keresni kell s magok az úgynevezett «rotten borough»-ok sem
fognak hiányzani. Hogy a dolog ezen állásában oly kitűnő férfiú, mint
Sáskay, szép párhuzamot vonhatott, s hogy minden hallgatóit
meggyőzé, magában világos; s habár később, midőn elvként
fölállítván, hogy az angol mint a magyar alkotmány alapja a szabad
választás, erről kezde beszélni s e tárgyban minden nagy iró
nézeteit fölhozá – néhányan Karvaly példáját követni kezdék:
legalább mély csend uralkodott az egész olvasás alatt, melyet csak
egy erős «halljuk» szakaszta félbe, midőn e szavakkal «már a mi
jelen helyzetünket illeti» egyenesen Taksony-megye jelen állapotára
fordítá figyelmét.
– Két dolog van a világon – így folytatá az olvasó – melyért
minden magyar nemes ember, s így e megye nemessége is, melynél
én magyarabbat nem ismerek (helyes!) leginkább lángol: a vallás s
hazája. – A szónokot hosszú «Éljen!» szakítja félbe. – Azaz mint
népszerűbb kitétellel mondani szoktuk: először az, hogy a megye
pecsétje a mi kezünkben legyen; másodszor: hogy a régi alkotmány
szerint magyar nemes ember semmire se fizessen. Minden
lelkesedés, mely nem e nemes kútfőből ered, mely nem e czélok
egyikének elérésére irányoztatik, hála a magyar nemesség józan
szellemének; tartós nem lehet, s habár egyes csábítóknak sikerült a
magyar népet – mert hisz alkotmányos értelemben csak a
nemességet nevezhetjük így – egy időre önérdekei ellen vezetni, a
tapasztalás győzelmesen megmutatta, hogy ezen abnormis,
szörnyeteg állapot nem tarthat soká, s hogy a magyar nemesség,
mely szabadságát vérével szerzé a csatamezőn, vérrel tudja azt
megőrzeni a békés tanácskozás szent termeiben is, mire újabb
időkből sok dicső példát hozhatnék fel. Igen uraim! – olvasá
lelkesedve tovább a szónok – nagy dolgok történtek. – S itt több
esetek adatnak elő, hol az úgynevezett subversiv párt, mely az
alkotmányt, mint látszik, azért akarja feldönteni, hogy romjaiból
vasutainak töltéseket csináljon, a házi adó vagy más kérdésekért
ledorongoltatott; melyek rendkívüli tetszéssel fogadtatván, midőn
Sáskay elmondá, hogy ily példák után Taksony-megye rendei
hátrább maradni nem fognak, hogy ők is utólsó csepp véröket, sőt
végső filléröket is föláldozni készek alkotmányukért, erre nem szűnő
éljenek következtek.
Mi akarjuk a szabadságot! Igen, tekintetes conferentia, mi akarjuk
a sajtószabadságot, a kereskedési, lelkiösmereti szabadságot;
akarjuk mindenek fölött, hogy megyei autonomiánk oly botrányos
beavatkozásoktól megőriztessék, milyen például az, hogy minap a
helytartó tanács az úrbéri telkeken lakó nemesek adóját beszedetni
rendelé; mi akarjuk a haladást, akarunk bankot, melyből négy
perczentre minden nemes pénzt kaphasson, vasutakat, csatornákat,
muzeumot s polytechnikumot; mi akarjuk a nemzetiséget, de akarjuk
azt is, hogy a szabadság, habár nagyobbá válik, azért mégis nemes
maradjon s féktelenséghez ne vezessen; hogy az egész nemzet
haladjon, de úgy, hogy a rend, melyben az most áll, meg ne
zavartassék; hogy a magyar nemzetiség virágozzék, de miután e
nemzetiség egyedüli képviselője a nemes, vele gyarapodjék a
nemesség is. A ki velünk ezt nem akarja, a ki jogainkat minden ajku
s származatu lakósokra kiterjesztvén, szabadságunkat (mely mint a
papiros pénz, ha szerfölötti mennyiségben kibocsátva minden kézen
forog, elveszti becsét) – meg akarja semmisíteni; ki oly politikai
tévtanokat hirdet, mint hogy vasutaink s bankunk, adómentességünk
s az ősiség eltörlése nélkül nem létezhetnek, az ellenünk, et hunc tu
Romane caveto!
– Miután a törvény, mely által az úrbéri telkeken lakó
nemesemberek adó alá vettettek, e megyében, hála az égnek, még
foganatba nem vétetett, a nemesség legnagyobb része velünk
egészen egy értelemben van, s mert Bántornyiék mindig a házi adó
fölvállalása s más ehhez hasonló tárgyak mellett küzdenek, az első s
legfőbb mód, melylyel a nemességet magunkhoz köthetjük, abban
áll: hogy Bántornyi alkotmány-ellenes czélzatait a nemesség között,
mennyire lehet, hirdessük.
– Persze – szakítá félbe Sáskayt a báró, ki tovább nem türheté a
hallgatást – ez könnyű és jó volna, ha Bántornyiék nem azt hirdetnék
a nemesség között, hogy pártuk nem a szegény nemeseket, hanem
csak az urakat akarja adó alá vetni, s hogy ők ez által temérdeket
nyernek.
– Bolondság – mond egy öreg táblabiró félig álmosan, – föl kell
világosítani a nemességet.
– Hisz az a baj, hogy teszik – viszonzá a báró, – magam láttam a
számadást, melylyel korteskednek. A püspökre esik 50,000 forint
minden évben, gróf Kőváryra 30,000 s így tovább; a teins úr –
folytatá Rétyhez fordulva – 5000 forinttal áll ott, az egyes nemesek
évenkint egy-egy garast fizetnek és az utak oly jók lesznek, hogy a
gabona ára, mely most 5 frt, felmegy 7 frt 30 krra, magam láttam a
számadást, ők igen is fölvilágosítják a nemességet!
– Hát jobban kell fölvilágosítani – szóla Sáskay, – majd egy
számadást bocsátunk ki, melyben a püspökre 1000, s minden
nemesre 100 forint esik, s a gabona ára 3 frtra száll.
– Nem hiszik, mondom, nem hiszik – válaszolá ismét a báró, – az
utósó nemesi adókivetésnél sem esett több egy-egy sz.-vilmosira
egy garasnál és –
– Nem mondtam – vága közbe Slacsanek, – hogy az ily
kivetésnek rossz következései lesznek? Mikor az erzsébeti pusztára
– melynek felét grófom, felét más nemesek birják – reánk 137 frt 30
krt, s a másik félre csak 11 frt 36 krt vetettek, talán százszor
mondtam, hogy rossz következései lesznek, mert a kisebb
nemességet inkább ijeszteni, mint csábítani kell az adóhoz, de akkor

– Talán bizony szemrehányásokat akarna a teins ur tenni? – szólt
egy táblabiró mérgesen az asztal másik oldalán.
– Igen, mintha nem volna igazságos, hogy a ki többet bir, többet
fizessen – mond egy másik.
– Ha t. i. mindketten nemes emberek – jegyzé meg helyesen
Nyúzó – az egész dolog, hogy is nevezted akkor Sáskay?
– Progressiv adó.
– Igen, progressiv adó, a legliberalisabb dolog a világon; a
franczia forradalom alatt találták föl.
– Én azt mondom – szólt hangosabban az előbbi mérges
táblabiró – hogy az erzsébeti adókivetés helyesen történt.
– És én azt, hogy nem helyesen – kiáltott föl neki tüzesedve
Slacsanek.
Mire az egész társaság «helyesen történt, nem helyesen,
igazság, rablás, törvénytelenség, halljuk! rendre! halljuk az alispánt!»
kiáltások között, irtóztató lármával fölugrott az asztaltól, hová az
alispán, Sáskay s főkép a báró, hosszú békéltetés után végre a
nagyobb részt ismét összegyűjté.
– Ne szóljunk a multakról – mondá az alispán végre, miután a
rend helyre állott. – Megengedem, hogy az erzsébeti adókivetés a
méltóságos gróf által terhesnek tartatott, de ő méltóságának s főkép
általánosan tisztelt képviselőjének honszeretetök- s
nagylelküségöknél fogva, méltányolni fogják a körülményeket,
melyek akkor ez adó kulcsát javaslák, s a jó ügy tekintetéből,
melynek akkor e megyében máskép többséget szerezni nem
lehetett, nem fogják rossz néven venni, hogy reá ez egy alkalommal
nagyobb adót vetettünk, annyival inkább, mert bizony e szegény
nemesség alig birja a terheket, melyek egy idő óta reá nehezednek.
Miután Slacsanek ezen alázatos szavak által megengesztelődve
nemeslelkűen kijelenté, hogy minden ez alkalommal mondott
helytelen kijelentéseket rossz néven nem vesz; az alispán
megköszönve a bárónak igen finom tapintatra mutató
figyelmeztetését, indítványt tett, hogy a Bántornyi ellen indítandó
agitátiónál inkább az emeltessék ki, hogy pártja a portiót,
katonatartást, forspontot s utcsinálást akarja a nemességre vetni.
– Igazság – szólt egy ügyvéd nevetve, – ha a nemességet
kapacitálni nem lehet, csak diákul kell hozzá szólani, mint az egykori
paraszt mondá: semmitől nem borzad inkább, mintha deákul szólnak
hozzá; a három szó, melyet ismer: conscriptio, portio és contributio,
maga lázadást csinálhat köztök.
– Ne méltóztassék a dolgot tréfának venni – emlékezteté Krivér,
– a névtől sok függ, példákból tudjuk, hogy sok dolog, mely egy
megyében megbukott, megváltoztatott névvel keresztül ment s
viszont.
– Igen s főkép tiszujításnál – szóla közbe a báró – mathematikai
igazság, hogy kinek két szótagú neve van, fél annyi kortessel
választathatik meg mint az, kinél négy szótagot kell kiáltani.
– Úgy tartom, eltérünk a tárgytól – emlékeztete Réty; – ha a
tisztelt conferentiának úgy tetszik, Sáskay úr meg fogja jegyezni,
hogy a nemesség leginkább az iránt leszen fölvilágosítandó, miként
Bántornyi pártja nem annyira nemesi adót, mint valóságos
contributiót, s portiót akar behozni (általános helyeslés). És most
menjünk tovább.
Sáskay, a Bántornyi megrontására tett indítványt följegyezvén,
most minden erők concentratiójának szükségéről kezde olvasni, s
miután előadá, hogy minden centralisatió magában ugyan kártékony
s veszélyes, tisztujításnál azonban, ha sikert akarunk,
elkerülhetetlen: az egész megyében egy fő-, minden járásban egy
alválasztmány kinevezését hozá indítványba, melyek egymásközt
összeköttetésben levén, a választás czélszerű elrendezésével
megbizassanak.
Ez indítvány, mint Magyarországban minden, miáltal a hivatalok
száma neveltetik, közhelyesléssel fogadtatott, s félórányi kissé
lármás tanácskozás után a hivatalok be is töltettek, természetesen
nagy részben a jelenlevőkből és pedig, mi sokkal csudálatosabb, a
nélkül, hogy halálos gyűlölségek támadtak volna, öt vagy hat esetet
kivéve, hol egyesek rossz néven vevék, hogy csak az
alválasztmányok tagjainak s nem elnökeinek választattak. Réty
kinyilatkoztatván, hogy a központi választmány elnökletét magára
nem vállalhatja, mert mint kijelelt a választásra semmikép befolyni
nem akar, minden jelenlevők egyhangú fölkiáltásával teins
Slacsanek úr választatott e terhes, de szép hivatalra.
– Még egy alázatos indítványom van – szóla a választások
végeztével báró Sóskuty: – minden szép és jó a világon az asszonyi
nemtől veszi eredetét; az asszony azon teremtés, mely stb. stb.,
mely okoknál fogva azt indítványozom, hogy minden járásban egy
pártfogó asszonyság választassék.
Általános helyeslés fogadá e lovagias indítványt, mi azonban
nem zárta ki, hogy az még kilencz egymást követő szónok által
különösen motiváltassék, s csak miután az asszonyi nem minden
érdemei elsoroltattak, lehete tovább menni.
Ezek után Sáskay egyes intézkedésekre irányzá hallgatóinak
figyelmét, melyeket azonban, miután a tisztujítások tactikájához
tartoznak, s olvasóim nagy része által nemcsak ismertetnek, hanem
néha alkalmaztattak is, röviden említeni elég leend. A főbbek közé
tartozik, hogy azon két hid, melyen az egyik ellenséges járás
nemessége a városba jön, tökéletesen kijavíttassék, de úgy, hogy
azok szétszedetvén, a tisztujítás előtti napokban oly állapotban
legyenek, hogy rajtok senki át ne mehessen. Ugyanez javasoltatott a
tiszai hidasokra nézve is, mert valamint természetes, hogy az illető
vámtulajdonosok, szeretett szomszédaik bátorságáról gondoskodva,
a hidasokat s kompokat épen most javíttatják ki, úgy azt sem veheti
senki rossz néven, ha az ácsmester ennyi munka között a kijavítást
csak épen a tisztujítás utáni napon végezhetné el.
A második nagyobbszerű sakkvonás abban állt: hogy mindazon
korcsmárosok s husvágók, kiknél az ellenfél élelmeit venni fogja,
lehető legrosszabb bor s megromlott hus kiszolgáltatására
birassanak, mi kevés megvesztegetés mellett annál könnyebbnek
látszott, minél nehezebb lenne, minden tárgyismerők ítélete szerint,
ugyane személyeket az ellenkezőre megvesztegetni. Ezen
rendszabály kivitelét egészen Nyúzó főbiró úr vállalta magára, arra
kötelezvén magát, hogy az említett egyedeket, kik nagy részint
nemtelenek, sőt zsidók, azon esetre, ha az ellenfél fenyegetései által
terrorizálva jó bort mérni merészlenének, czélszerű eszközökkel
rendre fogja utasítani.
Jöttek ezután több kisebb, a tisztujítási strategiához tartozó
fogások, melyek egyenkint csekélyeknek látszanak, de együtt véve
sokszor roppant hatást szülnek. Ilyen: hogy a főispánt fogadó
küldöttségek többsége ezen pártból neveztessék ki; az ellenfél
legtulzóbb, s legostobább tagjai pedig azért csatoltassanak hozzá,
hogy ő excja, ki három év óta a megyében nem volt, mindjárt a
dolgok való állásáról tiszta fogalmat nyerjen. Czélszerűnek látszott
ezen kívül még az is, ha ő excja fáklyás zenével tiszteltetik meg, s
az öreg Körmöczy tanácsosnak pedig, ki ő kegyelmességével
barátsági, sőt mint sokan hiszik, oly viszonyban áll, melynek
évenkinti kamatait szedné, azaz, ha a fiscalis azokat rendesen
behozná, macskazene rendeztetik, mi a kedélyek ingerültsége
mellett, mely Bántornyi emberei közt Körmöczy ellen létezik, ki
mindig a Rétyekhez szított, nehéz nem lehet. Ha ezekhez még ő
excja titoknoka jól informáltatik, a terem jókor elfoglaltatik, s a
főispán mellé néhány hű s jóhangú ember rendeltetik, a sikeren
kétkedni nem lehet. Minek elősegítésére azonban kivánatos, hogy
bizonyos, Sáskay által elsorolt, nagy befolyású kortesek vagy
Bántornyi táborából elcsábíttassanak, vagy legalább árthatási
szándékukban megakadályoztassanak; mire azonnal több jelenlevő
ajánlkozott, kik e veszedelmes ellenek lekenyerezését egymásközt
föloszták.
Csak egy vala még hátra, mi alkotmányos tekintetben talán
kevésbbé érdekes, de tisztujításoknál mindig a legnagyobb
figyelemmel tárgyaltatik, t. i. a pénz. Mielőtt Sáskay a tisztujítási
budgetet fölolvashatá, az egész társaságban különös nyugtalanság
vala észrevehető. Egy táblabíró véletlenül órájára nézve elbámult,
hogy már kilencz, s azonnal akart befogatni, mitől ő és mások, kik
példáját követni akarák, csak nehezen tartóztathattak vissza. A báró
fejét kezére támasztva főfájás ellen panaszkodott. Egy ügyvéd s a
vastag Tüskey pedig úgy vélekedtek, hogy az kétségen kívül a
szerfölötti forróságtól jő, s ezért a folyosóra mentek, míg egy ügyész,
ki a sok munkában szinte elszédült, indítványba hozá, hogy a
tanácskozás, melynek figyelemmel követésére a többség
elégtelennek érzi magát, a jövő, talán mához egy hétre tartandó
ülésre tétessék át.
Slacsanek tekintélye, Nyúzó káromkodásai, melyekhez Rétynek
azon észrevétele, hogy ha a tisztelt gyülekezet e fontos tárgyról ma
nem rendelkezik, jobb minden tisztujítási tervekkel fölhagyni, miután
a korteskedés megkezdését továbbra halasztani nem lehet; s főkép
Sáskay, ki siralmas hangon rimánkodott, hogy csak hallgassák meg
tervét, s látni fogják, hogy annak kiviteléhez pénz nem kell, végre
ismét székeikre hozá vissza a társaságot, és Sáskay tovább olvasá
memoireját.
Azon igaztalan panaszok között, melyekkel Magyarország
vádoltatik, egyik fő helyet foglal el a vesztegetés. A ki
tisztujításainkban tettleges részt vett, tudja ugyan, hogy az esetek
sokkal számosabbak, hol nemes társaink e vétekre nézve
szenvedőleg, mint azok, hol cselekvőleg lépnek föl, sőt hogy minden
tisztujítást megelőző tanácskozásokban mihelyt pénzbeli
adakozásokra jön a szó, sok egyébként szép előadású szónok
hallgatni szokott; azonban miután a fönemlített előítélet létezik, csak
helyeselhetem, hogy Sáskay annak megmutatásával kezdé
előadását, hogy a tisztujításra kivánt pénz semmi esetre sem a
nemesség megvesztegetésére leszen fordítandó.
– Minden ország – így okoskodott Sáskay, – hol szabad
választások léteznek, arról gondoskodott, hogy e fontos jog
független, azaz oly egyedekre bizassék, kik anyagi szükségeken
fölül állanak. Miután törvényeink erről nem gondoskodtak és
számos, egészen vagyontalan nemest ruháztak föl választási
képességgel, egyeseknek kell pótolni e hiányt s gondoskodni, hogy
a választók, legalább míg nehéz foglalatosságukban eljárnak,
minden szükségen fölül emeltessenek; mi természetesen csak úgy
történhetik, ha addig, míg a korteskedés s maga a tisztujítás tart,
étel, italról gondoskodva van, s néha egy pár forint adatik kárpótlásul
azoknak, kik nemesi kötelességök teljesítése által munkát mulasztva
kárt szenvednének. Hogy mindez nem megvesztegetési szándékból,
hanem ép azért történik, hogy a választóknak teljes függetlensége
biztosíttassék, világosan bizonyítja azon tapasztalás, hogy
valahányszor ez intézkedés valamely párt által elmulasztatik, a
választók nem követhetve szivök indulatát, az ellenfél jelöltjeinek
szokták adni szavazatukat. S például a jelen esetekben nem
gondoskodni bizonyos tanyákról, melyeken a jó elvek mellett
becsoportozó nemesség tartásáról gondoskodva legyen, nem volna
más, mint nemes társainkat arra kényszeríteni, hogy Bántornyi
tanyáihoz menjenek; mi kétségkívül egyike lenne a legszörnyebb
veszélyeknek, melyek a megyét, sőt a hazát érhetik.
A báró s Tüskey itt nagyot sóhajtának; Karvaly bajszát pödörve
mondá: – csak próbáljon valaki Bántornyi tanyájára menni! – s
azután valamit a teremtésről kezde beszélni, mit azonban, mert
alantabb hangon szólt, nem egészen értheténk.

You might also like