Download as pdf or txt
Download as pdf or txt
You are on page 1of 54

Database Systems for Advanced

Applications DASFAA 2020


International Workshops BDMS SeCoP
BDQM GDMA and AIDE Jeju South
Korea September 24 27 2020
Proceedings Yunmook Nah
Visit to download the full and correct content document:
https://textbookfull.com/product/database-systems-for-advanced-applications-dasfaa-
2020-international-workshops-bdms-secop-bdqm-gdma-and-aide-jeju-south-korea-se
ptember-24-27-2020-proceedings-yunmook-nah/
More products digital (pdf, epub, mobi) instant
download maybe you interests ...

Database Systems for Advanced Applications 25th


International Conference DASFAA 2020 Jeju South Korea
September 24 27 2020 Proceedings Part I Yunmook Nah

https://textbookfull.com/product/database-systems-for-advanced-
applications-25th-international-conference-dasfaa-2020-jeju-
south-korea-september-24-27-2020-proceedings-part-i-yunmook-nah/

Database Systems for Advanced Applications 25th


International Conference DASFAA 2020 Jeju South Korea
September 24 27 2020 Proceedings Part II Yunmook Nah

https://textbookfull.com/product/database-systems-for-advanced-
applications-25th-international-conference-dasfaa-2020-jeju-
south-korea-september-24-27-2020-proceedings-part-ii-yunmook-nah/

Database Systems for Advanced Applications 25th


International Conference DASFAA 2020 Jeju South Korea
September 24 27 2020 Proceedings Part III Yunmook Nah

https://textbookfull.com/product/database-systems-for-advanced-
applications-25th-international-conference-dasfaa-2020-jeju-
south-korea-september-24-27-2020-proceedings-part-iii-yunmook-
nah/

Database Systems for Advanced Applications DASFAA 2016


International Workshops BDMS BDQM MoI and SeCoP Dallas
TX USA April 16 19 2016 Proceedings 1st Edition Hong
Gao
https://textbookfull.com/product/database-systems-for-advanced-
applications-dasfaa-2016-international-workshops-bdms-bdqm-moi-
and-secop-dallas-tx-usa-april-16-19-2016-proceedings-1st-edition-
Information Security Applications 21st International
Conference WISA 2020 Jeju Island South Korea August 26
28 2020 Revised Selected Papers Ilsun You

https://textbookfull.com/product/information-security-
applications-21st-international-conference-wisa-2020-jeju-island-
south-korea-august-26-28-2020-revised-selected-papers-ilsun-you/

Database Systems for Advanced Applications 22nd


International Conference DASFAA 2017 Suzhou China March
27 30 2017 Proceedings Part I 1st Edition Selçuk Candan

https://textbookfull.com/product/database-systems-for-advanced-
applications-22nd-international-conference-dasfaa-2017-suzhou-
china-march-27-30-2017-proceedings-part-i-1st-edition-selcuk-
candan/

Dependable Software Engineering. Theories, Tools, and


Applications: 6th International Symposium, SETTA 2020,
Guangzhou, China, November 24–27, 2020, Proceedings Jun
Pang
https://textbookfull.com/product/dependable-software-engineering-
theories-tools-and-applications-6th-international-symposium-
setta-2020-guangzhou-china-november-24-27-2020-proceedings-jun-
pang/

Distributed Artificial Intelligence Second


International Conference DAI 2020 Nanjing China October
24 27 2020 Proceedings Matthew E. Taylor

https://textbookfull.com/product/distributed-artificial-
intelligence-second-international-conference-dai-2020-nanjing-
china-october-24-27-2020-proceedings-matthew-e-taylor/

Advanced Concepts for Intelligent Vision Systems 19th


International Conference ACIVS 2018 Poitiers France
September 24 27 2018 Proceedings Jacques Blanc-Talon

https://textbookfull.com/product/advanced-concepts-for-
intelligent-vision-systems-19th-international-conference-
acivs-2018-poitiers-france-september-24-27-2018-proceedings-
Yunmook Nah · Chulyun Kim ·
Seon Ho Kim · Yang-Sae Moon ·
Steven Euijong Whang (Eds.)

Database Systems
LNCS 12115

for Advanced Applications


DASFAA 2020 International
Workshops
BDMS, SeCoP, BDQM, GDMA, and AIDE
Jeju, South Korea, September 24–27, 2020
Proceedings
Lecture Notes in Computer Science 12115

Founding Editors
Gerhard Goos
Karlsruhe Institute of Technology, Karlsruhe, Germany
Juris Hartmanis
Cornell University, Ithaca, NY, USA

Editorial Board Members


Elisa Bertino
Purdue University, West Lafayette, IN, USA
Wen Gao
Peking University, Beijing, China
Bernhard Steffen
TU Dortmund University, Dortmund, Germany
Gerhard Woeginger
RWTH Aachen, Aachen, Germany
Moti Yung
Columbia University, New York, NY, USA
More information about this series at http://www.springer.com/series/7409
Yunmook Nah Chulyun Kim
• •

Seon Ho Kim Yang-Sae Moon


• •

Steven Euijong Whang (Eds.)

Database Systems
for Advanced Applications
DASFAA 2020 International
Workshops
BDMS, SeCoP, BDQM, GDMA, and AIDE
Jeju, South Korea, September 24–27, 2020
Proceedings

123
Editors
Yunmook Nah Chulyun Kim
Dankook University Department of IT Engineering
Yongin, Korea (Republic of) Sookmyung Women's University
Seoul, Korea (Republic of)
Seon Ho Kim
Integrated Media Systems Center Yang-Sae Moon
University of Southern California Kangwon National University
Los Angeles, USA Chunchon, Korea (Republic of)
Steven Euijong Whang
Korea Advanced Institute of Science
and Technology
Daejeon, Korea (Republic of)

ISSN 0302-9743 ISSN 1611-3349 (electronic)


Lecture Notes in Computer Science
ISBN 978-3-030-59412-1 ISBN 978-3-030-59413-8 (eBook)
https://doi.org/10.1007/978-3-030-59413-8
LNCS Sublibrary: SL3 – Information Systems and Applications, incl. Internet/Web, and HCI

© Springer Nature Switzerland AG 2020


This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or part of the
material is concerned, specifically the rights of translation, reprinting, reuse of illustrations, recitation,
broadcasting, reproduction on microfilms or in any other physical way, and transmission or information
storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar methodology now
known or hereafter developed.
The use of general descriptive names, registered names, trademarks, service marks, etc. in this publication
does not imply, even in the absence of a specific statement, that such names are exempt from the relevant
protective laws and regulations and therefore free for general use.
The publisher, the authors and the editors are safe to assume that the advice and information in this book are
believed to be true and accurate at the date of publication. Neither the publisher nor the authors or the editors
give a warranty, expressed or implied, with respect to the material contained herein or for any errors or
omissions that may have been made. The publisher remains neutral with regard to jurisdictional claims in
published maps and institutional affiliations.

This Springer imprint is published by the registered company Springer Nature Switzerland AG
The registered company address is: Gewerbestrasse 11, 6330 Cham, Switzerland
Preface

Along with the main conference, the DASFAA 2020 workshops provided international
forums for researchers and practitioners to introduce and discuss research results and
open problems, aiming at more focused problem domains in database. This year, five
workshops were held in conjunction with the 25th International Conference on
Database Systems for Advanced Applications (DASFAA 2020):
– The 7th International Workshop on Big Data Management and Service (BDMS
2020)
– The 6th International Symposium on Semantic Computing and Personalization
(SeCoP 2020)
– The 5th Big Data Quality Management (BDQM 2020)
– The 4th International Workshop on Graph Data Management and Analysis (GDMA
2020)
– The First International Workshop on Artificial Intelligence for Data Engineering
(AIDE 2020)
All the workshops were selected through a public call-for-proposals process, and
each of them focused on a specific area that contributes to the main themes of
DASFAA 2020. Once the proposals were accepted, each workshop was proceeded with
its own call for papers and reviewing of the submissions. In total, 22 papers were
accepted, including 5 papers for BDMS 2020, 5 papers for SeCoP 2020, 4 papers for
BDQM 2020, 4 papers for GDMA 2020, and 4 papers for AIDE 2020. All the
insightful papers were presented at the workshops in conjunction with DASFAA 2020,
held during September 24–27, 2020, in Jeju, South Korea. The workshops were
originally scheduled for May 21–24, 2020, but unavoidably postponed due to the
COVID-19 pandemic all over the world.
We would like to thank all of the members of the Workshop Organizing Com-
mittees, along with their Program Committee members, for their tremendous effort in
making the DASFAA 2020 workshops a success. In addition, we are grateful to the
main conference organizers for their generous support as well as their efforts in
including the workshop papers in the proceedings series. Lastly, we acknowledge the
generous financial support from IITP1, Dankook University SW Centric University
Project Office, DKU RICT, OKESTRO, SUNJESOFT, KISTI, LG CNS, INZENT,
Begas, SK Broadband, MTDATA, WAVUS, SELIMTSG and Springer.

September 2020 Chulyun Kim


Seon Ho Kim

1
Institute of Information & communications Technology Planning & Evaluation (IITP) grant funded
by the Korea government (MSIT) (No. 2020-0-01356, 25th International Conference on Database
Systems for Advanced Applications (DASFAA)).
Organization

BDMS 2020 Organization


Organizers
Xiaoling Wang East China Normal University, China
Kai Zheng University of Electronic Science and Technology
of China, China
An Liu Soochow University, China

SeCoP 2020 Organization


Honorary Co-chairs
Qing Li The Hong Kong Polytechnic University, Hong Kong
Fu Lee Wang The Open University of Hong Kong, Hong Kong

General Co-chairs
Gary Cheng The Education University of Hong Kong, Hong Kong
Tianyong Hao South China Normal University, China
Tak-Lam Wong Douglas College, Canada

Organizing Co-chairs
Di Zou The Education University of Hong Kong, Hong Kong
Winnie Wai Man Lam The Education University of Hong Kong, Hong Kong

Technical Program Committee Co-chairs


Yi Cai South China University of Technology, China
Wei Chen Agricultural Information Institute of CAS, China
Leonard Kin Man Poon The Education University of Hong Kong, Hong Kong
Haoran Xie Lingnan University, Hong Kong

Publicity Co-chairs
Mingqiang Wei The Open University of Hong Kong, Hong Kong
Guanliang Chen Monash University, Australia
Shan Wang Macau University, Macau
Yu Song South China Normal University, China
Yanjie Song The Education University of Hong Kong, Hong Kong

Media Chair
Man Ho Alpha Ling The Education University of Hong Kong, Hong Kong
viii Organization

PC Members
Zhiwen Yu South China University of Technology, China
Jian Chen South China University of Technology, China
Raymong Y. K. Lau City University of Hong Kong, Hong Kong
Rong Pan Sun Yat-sen University, China
Yunjun Gao Zhejiang University, China
Shaojie Qiao Southwest Jiaotong University, China
Jianke Zhu Zhejiang University, China
Neil Y. Yen University of Aizu, Japan
Derong Shen Northeastern University, China
Jing Yang Research Center on Fictitious Economy & Data
Science CAS, China
Wen Wu Hong Kong Baptist University, Hong Kong
Raymong Wong Hong Kong University of Science and Technology,
Hong Kong
Cui Wenjuan CAS, China
Xiaodong Li Hohai University, China
Xiangping Zhai Nanjing University of Aeronautics and Astronautics,
China
Xu Wang Shenzhen University, China
Ran Wang Shenzhen University, China
Debby Dan Wang National University of Singapore, Singapore
Jianming Lv South China University of Technology, China
Tao Wang University of Southampton, UK
Jingjing Wang The Open University of Hong Kong, Hong Kong
Dingkun Zhu The Open University of Hong Kong, Hong Kong
Zongxi Li City University of Hong Kong, Hong Kong
Xudong Kang The Education University of Hong Kong, Hong Kong
Xieling Chen The Education University of Hong Kong, Hong Kong

BDQM 2020 Organization


Workshop Co-chairs
Yajun Yang Tianjin University, China
Wenjie Zhang The University of New South Wales, Australia

PC Members
Zhifeng Bao RMIT University, Australia
Laure Berti-Equille Hamad Bin Khalifa University, Qatar
Yingyi Bu Couchbase, USA
Gao Cong Nanyang Technological University, Singapore
Yunpeng Chai Renmin University of China, China
Qun Chen Northwestern Polytechnical University, China
Yueguo Chen Renmin University of China, China
Yongfeng Dong Hebei University of Technology, China
Organization ix

Rihan Hai Lehrstuhl Informatik 5, Germany


Cheqing Jin East China Normal University, China
Guoliang Li Tsinghua University, China
Lingli Li Heilongjiang University, China
Hailong Liu Northwestern Polytechnical University, China
Xianmin Liu Harbin Institute of Technology, China
Xueli Liu Tianjin University, China
Zhijing Qin Pinterest, USA
Xuguang Ren Inception Institute of Artificial Intelligence, UAE
Chuitian Rong Tianjin Polytechnic University, China
Hongzhi Wang Harbin Institute of Technology, China
Jiannan Wang Simon Fraser University, Canada
Xin Wang Tianjin University, China
Jianye Yang Hunan University, China
Xiaochun Yang Northeast University, China
Dan Yin Harbin Engineering University, China

GDMA 2020 Organization


Workshop Chair
Lei Zou Peking University, China

PC-Chairs
Xiaowang Zhang Tianjin University, China
Liang Hong Wuhan University, China

AIDE 2020 Organization


Organizers
Chulyun Kim Sookmyung Women’s University, South Korea

Program Co-chairs
Heejun Chae Sookmyung Women’s University, South Korea
Younghoon Kim Hanyang University, South Korea
Sangjun Lee Soongsil University, South Korea
x Organization

Financial Sponsors
Organization xi

Academic Sponsors
Contents

The 7th Big Data Management and Service (BDMS 2020)

Low Rank Communication for Federated Learning . . . . . . . . . . . . . . . . . . . 1


Huachi Zhou, Junhong Cheng, Xiangfeng Wang, and Bo Jin

Question Answering over Knowledge Base with Symmetric


Complementary Attention. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Yingjiao Wu and Xiaofeng He

Supervised Learning for Human Action Recognition


from Multiple Kinects . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Hao Wang, Christel Dartigues-Pallez, and Michel Riveill

Discovery of Chasing Patterns in Trajectory Data . . . . . . . . . . . . . . . . . . . . 47


Huaqing Wu, Weizhuo He, Qizhi Liu, and Yu Yang

A Cloud-Based Platform for ECG Monitoring and Early Warning Using


Big Data and Artificial Intelligence Technologies . . . . . . . . . . . . . . . . . . . . 60
Chunjie Zhou, Ali Li, Zhiwang Zhang, Zhenxing Zhang, and Haiping Qu

The 6th International Symposium on Semantic Computing


and Personalization (SeCoP 2020)

What Are MOOCs Learners’ Concerns? Text Analysis of Reviews


for Computer Science Courses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Xieling Chen, Di Zou, Haoran Xie, and Gary Cheng

A New Context-Aware Method Based on Hybrid Ranking


for Community-Oriented Lexical Simplification . . . . . . . . . . . . . . . . . . . . . 80
Jiayin Song, Jingyue Hu, Leung-Pun Wong, Lap-Kei Lee,
and Tianyong Hao

Two-Level Convolutional Neural Network for Aspect Extraction . . . . . . . . . 93


Jialin Wu, Yi Cai, Qingbao Huang, Jingyun Xu,
Raymond Chi-Wing Wong, and Jian Chen

Leveraging Statistic and Semantic Features for Similar Question Detection


Using Fusion XGBoost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Siyuan Liao, Leung-Pun Wong, Lap-Kei Lee, Oliver Au,
and Tianyong Hao
xiv Contents

Core Research Topics of Studies on Personalized Feedback in the Past


Four Decades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Xieling Chen, Di Zou, Gary Cheng, Haoran Xie, Fu Lee Wang,
and Leung Pun Wong

The 5th Big Data Quality Management (BDQM 2020)

Maintenance Method of Logistics Vehicle Based on Data Science


and Quality . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Yu Ping Peng, Shih Chieh Cheng, Yu Tsung Huang, and Jun Der Leu

An Efficient and Metadata-Aware Big Data Storage Architecture . . . . . . . . . 146


Rize Jin, Joon-Young Paik, and Yenewondim Biadgie

Kernel Design of Intelligent Historical Database for Multi-objective


Combustion Optimization. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Wei Zheng and Chao Wang

Threshold Functional Dependencies for Time Series Data . . . . . . . . . . . . . . 164


Mingyue Ji, Xiukun Wei, and Dongjing Miao

The 4th International Workshop on Graph Data Management


and Analysis (GDMA 2020)

A Survey on Modularization of Chatbot Conversational Systems . . . . . . . . . 175


Xinzhi Zhang, Shiyulong He, Zhenfei Huang, and Ao Zhang

A Long Short-Term Memory Neural Network Model for Predicting


Air Pollution Index Based on Popular Learning . . . . . . . . . . . . . . . . . . . . . 190
Hong Fang, Yibo Feng, Lan Zhang, Ming Su, and Hairong Yang

Domain Ontology Construction for Intelligent Anti-Telephone-


Fraud Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Shiqi Deng, Zhen Zhang, and Liang Hong

Improving Gaussian Embedding for Extracting Local Semantic


Connectivity in Networks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
Chu Zheng, Peiyun Wu, and Xiaowang Zhang

The 1st International Workshop on Artificial Intelligence


for Data Engineering (AIDE 2020)

A Novel Shilling Attack Detection Method Based on T-Distribution


over the Dynamic Time Intervals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
Wanqiao Yuan, Yingyuan Xiao, Xu Jiao, Chenchen Sun,
Wenguang Zheng, and Hongya Wang
Contents xv

Long- and Short-Term Preference Model Based on Graph Embedding


for Sequential Recommendation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Yu Liu, Haiping Zhu, Yan Chen, Feng Tian, Dailusi Ma, Jiangwei Zeng,
and Qinghua Zheng

Event Detection on Literature by Utilizing Word Embedding . . . . . . . . . . . . 258


Jiyun Chun and Chulyun Kim

User Sequential Behavior Classification for Click-Through


Rate Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Jiangwei Zeng, Yan Chen, Haiping Zhu, Feng Tian, Kaiyao Miao,
Yu Liu, and Qinghua Zheng

Author Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281


Low Rank Communication for Federated
Learning

Huachi Zhou(B) , Junhong Cheng, Xiangfeng Wang, and Bo Jin

East China Normal University, Shanghai 200062, People’s Republic of China


{hczhou,jhcheng}@stu.ecnu.edu.cn,
{xfwang,bjin}@cs.ecnu.edu.cn

Abstract. Federated learning (FL) aims to learn a model with privacy


protection through a distributed scheme over many clients. In FL, an
important problem is to reduce the transmission quantity between clients
and parameter server during gradient uploading. Because FL environ-
ment is not stable and requires enough client responses to be collected
within a certain period of time, traditional model compression practices
are not entirely suitable for FL setting. For instance, both design of the
low-rank filter and the algorithm used to pursue sparse neural network
generally need to perform more training rounds locally to ensure that
the accuracy of model is not excessively lost. To breakthrough transmis-
sion bottleneck, we propose low rank communication Fedlr to compress
whole neural network in clients reporting phase. Our innovation is to
propose the concept of optimal compression rate. In addition, two mea-
sures are introduced to make up accuracy loss caused by truncation:
training low rank parameter matrix and using iterative averaging. The
algorithm is verified by experimental evaluation on public datasets. In
particular, CNN model parameters training on the MNIST dataset can
be compressed 32 times and lose only 2% of accuracy.

Keywords: Federated learning · Convolutional neural network · Low


rank approximation · Matrix compression · Singluar vaue
decomposition

1 Introduction
The widespread application of deep neural networks has achieved remarkable
success in many computer tasks, such as image processing, speech recognition,
and text translation. However, most of them require people to share their per-
sonal data with service providers, including their daily behaviors, personal pref-
erences, etc., which to some extent is quite private data. Therefore, users hate
or even refuse to upload personal data to the server.
At the same time, mobile phones and tablets with a large amount of users’
sensitive data become more and more powerful. With development of edge com-
puting, the scheme of deploying tasks at the edge of the network rather than the
cloud is becoming more and more mature.
c Springer Nature Switzerland AG 2020
Y. Nah et al. (Eds.): DASFAA 2020 Workshops, LNCS 12115, pp. 1–16, 2020.
https://doi.org/10.1007/978-3-030-59413-8_1
2 H. Zhou et al.

Fig. 1. The structure of FL

FL is a machine learning framework that aims to build a high-quality learn-


ing model as centralized in which training data remain local. In order to do this,
H. Brendan et al [1] propose Federated Average algorithm. Terminal devices
train a shared model with data stored locally under the coordination of param-
eter server. At each training round, sever randomly selects those volunteering
devices which are qualified to participate in this round. Those chosen clients
upload their own gradients to the central sever within a fixed time. Then server
averages all participants’ gradients and sends it back to the participants. This
iterative training process continues throughout the network until global conver-
gence is reached or some termination condition is met [1]. However, in the learn-
ing process of mass clients, communication efficiency is of the utmost importance
(Fig. 1).
On one hand, because of characteristics of asymmetric digital subscriber
line, the upload speed is several times lower than the download speed. Network
communication speeds are even orders of magnitude slower than distributed
environment. In order to solve transmission bottleneck, reducing communication
costs, especially when clients upload their models, helps nodes spend less time
on crowded channels to speed up training round.
On the other hand, existing work trying to cut communication cost mostly
focuses on two schemes. The first is to reduce the amount of information needed
to be exchanged globally by increasing the number of local iteration rounds [2].
However, the size of model parameters needed to be transmitted for a single time
is still very large. The second is to quantify information to reduce the number
of bits [3,4]. But, the problem of quantization is that the accuracy is unstable
and it is easy to cause precision loss.
To solve these problems, we propose Federated low rank(Fedlr) algorithm
which reduces the communication cost between server and clients, while keeping
the accuracy. Our work shows that the low-rank representation of a matrix can
optimally achieve a balance in accuracy loss, which brings new ideas to the
design of communication efficiency strategy. Our contributions are summarized
as follows:
Low Rank Communication for Federated Learning 3

– We apply truncated SVD to compress parameter matrix of model convolu-


tional layers and propose a general algorithm for determining the optimal
compression ratio of the parameter matrix.
– In order not to significantly increase model loss caused by rank truncation,
we train low rank convolutional layers. The central node aggregates historical
gradients of each node separately to reduce the variance of current gradient.
– The extensive experiments on public datasets show the effectiveness of the
proposed algorithm.

2 Related Works
In Sects. 2.1 and 2.2, we introduce traditional neural network compression
techniques. In Sect. 2.3, we introduce gradient compression techniques. In our
description, readers will find that content in Sect. 2.3 is more suitable for FL.

2.1 Model Pruning


The purpose of neural network pruning is to reduce the amount of model weights
to make model thinner. There are three distinguished mechanisms. The first is
to add different penalty terms to the loss function of neural network during
training process to promote the trained neural network to contain more zero
elements. [5] selects parameter index set whose value range is {0,1} to penalize
the total number of network parameters. [6] sets a scaling factor which multiplies
with a channel output before it goes into next layer. The penalty term chooses
the sum of scaling factors. The second method directly deletes smaller weights
during training. [7] proposes a gentle gradual pruning method, which slowly
prunes from a small sparsity to the desired sparsity. [8] inherits this idea and
proposes one-shot pruning, while each round masking some smaller weights,
resetting remaining weights to initial value and retraining the whole network. In
the forward propagation process, [9] deletes a channel of the i-th layer and see
if the output of the i+1 layer is seriously affected to determine the importance
of the channel weight in i-th layer. The third method is weight sharing: through
weight clustering, channels of the same category share the same weight [10],
which only decreases the memory space occupied by the model and does not
save model reasoning time, compared to the first two methods. Overall, pruning
is not suitable for FL environments. First, it is difficult to agree on whether to
cut off some connectivity between neurons among clients. Second, pruning needs
extra rounds for retraining to restore the performance of the model, which takes
a lot of time.

2.2 Model Low Rank Filter and Model Quantization


Another method of model compression is to use low rank convolutional filters.
[11] designs low rank filters including two processes. First, it classifies input
4 H. Zhou et al.

Server

Clients Download
the Latest Model
Train Low Rank
Neural Network
Aggregate the
Models from Clients

SVD DecomposiƟon

Send Truncated
Parameter Matrix
Average the Model
by Its Historical
Calculate OpƟmal Parameters
Compression RaƟo

Fig. 2. Flow chart of Fedlr algorithm

channels and only allows portion of filters to connect to a specific class to reduce
filters redundancy and projects the input image dimension down to 1D sub-
space using intermediate filters to reduce input size. Then they apply the tensor
decomposition method to all filters to store weights more efficiently. [12] In order
to reduce channel or filter redundancy, horizontal and vertical filters with a rank
of 1 are used to approximate the previous 2d tensor. The aim of model quanti-
zation is to replace floating-point numbers with 8-bit or 16-bit integers or other
low-precision numeric formats. Based on [13], there are two quantization meth-
ods: deterministic quantization and stochastic quantization. For the former, the
popular binary neural network maps model weights to {+1, −1} according to
their positive and negative. For the latter, [14] assumes model weights follow
multinomial distribution and attempts to train neural networks with discrete
weights. But under FL setting, low rank filter design also needs additional local
training rounds to minimize reconstruction errors, which takes a lot of time. For
quantization, decreasing number of bits may cause serious degradation of the
model. According to Deep Compression’s survey, quantized convolutional layer
requires 10 bits to avoid a significant loss of accuracy [15].

2.3 Gradient Quantization


Gradient quantization, just as its name suggests, is applied to the output gra-
dient to be transmitted by each node, which follows a common principle. The
mathematical expectation of quantified variable is an unbiased estimate of the
Low Rank Communication for Federated Learning 5

original variable mathematical expectation [16–18]. Unlike model quantization,


which recovers the accuracy of pruned model by increasing training round, gra-
dient quantization uses other strategies to bridge the gap between quantized
values and true values of gradients. [19] Each node accumulates its own quan-
tization error for each round. Before each round starts quantization, decayed
quantization error is added to current local gradient to compensate it. [20] uses
stochastic rotated quantization to limit quantization range to [0, 1] to reduce
mean squared error. Due to its wide application in distributed learning, gradient
quantization is also widely used in FL. It is worth noting that our work does not
include any distributed quantization and the subsampling techniques contained
in [21]. Future work will try to make them compatible with our work to provide
greater compression rates (Fig. 3).

Fig. 3. The left part is n fully connected layers and we assume top layer has shape
M × N. Right part illustrates the compression process of SVD

3 Federated Low Rank Algorithm


3.1 Overview

In this section, we will describe our method. The algorithm has four main com-
ponents: training low rank parameter matrix, determining optimal compression
ratio, compressing model using SVD and reducing noise. The complete proce-
dures at the server and each client node are presented in Algorithms 1 and 2,
respectively. In order to explain our Fedlr strategy more clearly, we provide a
flow chart (shown in Fig. 2) of the algorithm. In left part, clients download lat-
est model, train low rank model locally and upload their model using truncated
SVD. In right part, server receives each client model, averages with its historical
model and aggregates all averaged models.
6 H. Zhou et al.

Algorithm 1: Fedlr strategy for server:


Input : specified minimum receiving client gradient number T , Specified
 , volunteering
communication round N , Model selected for training W
edge nodes set C
Output: shared model parameter Wout
1 Initialize W randomly ;
2 Initialize history gradients ← [] ;
3 Initialize aggregated gradients ← [] ;
4 for each communication round r = 1,2... N do
5 Randomly select St clients from C;
6 send W  to St clients;
7 for t = 1, 2...T do
8 listening clients m in St and receiving message U 
m Σm Vm ;

9  
Wm = Um Σm Vm ; 
10 history gradients[m].append (Wm ) ;
 3
11 W m = i=1 history gradients[m][i];
12 aggregated gradients.append(W  m );
13 end
14  = Σi=1
W T
aggregated gradients[i];
15 end
16 return W as Wout ;

3.2 Model Compression Using SVD


Low-rank decomposition has a wide range of applications in image restora-
tion, matrix filling, and collaborative filtering. Projecting matrices to lower-
dimensional linear subspaces greatly reduces costs of federal learning commu-
nication [22]. The adversarial training of Peter Langenberg and others on the
fully-convolutional neural network shows that low-rankness of neural network
weights can further improve robustness [23]. Low rank characteristic also helps
model from overfitting. Compared to other popular matrix factorization tech-
niques, such as CUR matrix factorization, which maintains sparsity within the
decomposed matrix, we adopt a more popular truncated SVD matrix technique.
There are two advantages. First, according to Eckart-Young theorem, truncated
SVD has the smallest low-rank approximation error, which lets us not worry
about excessive decline in accuracy. Second, according to extensive experiments,
only around 1% of singular values contain 97% of energy, which also explains
from another perspective why the SVD low rank approximation still maintains
excellent accuracy even if a large number of singular vectors are discarded. This
feature of focusing energy on a few singular values allows us to compress the
parameter matrix as much as possible. In this paper, we only focus on param-
eter matrix of convolutional layer and do not consider structure or weight of a
single filter in particular. In results analysis section, we will discuss connection
between our strategy and single convolution filter. The weight of CNN layer
Low Rank Communication for Federated Learning 7

Algorithm 2: Fedlr strategy for clients:


Input : shared model parameter from server W , local datasets D,
minibatchsize b, learning rate r, epoch size T , hyperparameter λ α,
loss function l, Frobenius norm constraint F , clients C
Output: model parameter U Σ
 V
1 training phase;
2 for each client c ∈ C in parallel do
3 Initialize Wn,c ← W ;
4 for m = 1,2...T do
5 for n = 1,2... D b
do
6 Wn,c = Wn−1,c − r(∇l + α∇F );
7 end
8 end
r
9 i=1 U ΣV = SV D(Wc );
10 Estimate k ← optimal ratio(Σ) from equation (14);
11 Sending U Σ  V to server;
12 end

is in the form of 4d tensor W d×d×m×n (d is kernel size, m is the number of


input channel and n is the number of output feature map). We convert W into
d2 × m × n shape. So each element in 3d array is W ∈ Rm×n . According to the
definition of SVD [24], W = U ΣV , where U is a left singular matrix with the
size of m × min (m, n), V is a right singular matrix with the size min (m, n) × n
and Σ is a diagonal matrix of singular values like diag(σ1 , σ2 ......, σn ) where
σ1 ≥ σ2 ...... ≥ σmin (m,n) . According to the definition of SVD, W can be written
as

min (m,n)
W = σi Ui Vi . (1)
i=1

Assuming that only k ranks are retained, the optimal rank k approximation of
the parameter matrix W is:


k
=
W σi Ui Vi . (2)
i=1

The size of original parameter matrix B = m × n. After the parameter matrix is


 (We don’t count
compressed, message sent by a client to the server equals to B
the packet header and tail added for network transmission):

=U
B Σ V = m × k + k + n × k = k(m + n + 1) . (3)

In order to achieve message compression, the reserved rank number k needs to


 ≤ B, which means
satisfy 0 ≤ B
mn
0≤k≤ . (4)
m+n+1
8 H. Zhou et al.

We operate each element in 3d array of all convolutional layers in same way.


When the channel is congested and packet loss occurs frequently, mobile phone
detects that network layer is in a bad condition with high delay. Instead of
sending entire low rank matrix at once, the client sends one singular value and
the corresponding left and right singular vector each time.

3.3 Optimal Compression Ratio


In order to reduce redundancy between filters, it is really effective to replace
them with a linear combination of fewer filters or low-rank filters. In practical
applications, it is very difficult to decide how many filters to be left in order to
achieve the maximum compression ratio while a small performance degradation.
Researchers face the same problem when compressing neural parameters to be
transmitted. In the past, model compression often selects fixed-rank intercep-
tion [25]. We supppose that different machine learning tasks and corresponding
datasets demand different parameter space. The result is that the number of
ranks worth retaining for different task or different layer is also different. The
results analysis section verifies our assumption. When fixed compression ratio
is large, information originally contained in the parameter matrix is excessively
deleted. When the compression ratio is too small, the potential for deeper com-
pression of a matrix is ignored. Considering this problem, we propose a formula
to decide optimal compression rate of a parameter matrix. Suppose g(k) repre-
sents the compression ratio of a parameter matrix, and f (k) represents the loss
rate of a matrix information. Based on Sect. 3.1, the optimal k needs to satisfy
mn
max f (k) + αg(k) , where 0 ≤ k ≤ . (5)
k m+n+1
We use Frobenius norm to measure the retention rate of matrix information:
 

W 
F
f (k) = , (6)
W F

and rank compression rate to measure matrix compression rate:


r−k
g(k) = . (7)
r
Now (5) becomes to
 2

W  r−k 2
F
max 2 +( ) . (8)
k W F r
Based on definition of Frobenius norm,
 
 min(m,n)
m 
n  
W F =  a2ij = trace(W × W ) =  σi2 , (9)
i=1 j=1 i=1
Low Rank Communication for Federated Learning 9

and 
   k
 
W  =  σi2 . (10)
F
i=1

For the purpose of optimizing this formula more easily, we square f (k) and g(k).
So we get
k 2
i=1 σi r−k 2
max min(m,n) + α( ) . (11)
k σ2 r
i=1 i
We set f (k) first-order increment symbol to

σk2
∇f (k) = min(m,n)
, (12)
i=1 σi2

first-order increment of g(k)


α(2k − 2r − 1)
∇g(k) = . (13)
r2
We can easily see that f (k) is a monotonically increasing function, and the
increment is gradually decreasing. g(k) is a monotonically decreasing function
and absolute value of the increment is gradually decreasing. Judging from the
second-order increment of f (k) and g(k), the change rate of first-order increment
of f (k) goes from large to small and the change rate of first-order increment of
g(k) is constant. And because front singular values concentrate most of energy,
when k is small, the first-order increment of f (k) should be greater than the
first-order increment of g(k). Moreover, we assume that k should not reach the
optimal value near the upper and lower bounds of the domain. So, when the
first-order increment of f (k) is equal to the first-order increment of g(k), the
whole formula reaches maximum. So optimal k satisfies


min(m,n)

min(m,n)
α(2r + 1) σi2 = r2 σk2 + 2α σi2 k . (14)
i=1 i=1

Among them, α is a hyperparameter, which measures the importance of


matrix compression ratio. When the channel is extremely congested and packet
loss occurs seriously, clients increase α value appropriately. When network con-
nection is smooth, clients decrease α value. More importantly, it is worth noting
that parameters needed for getting k totally depend on singular values of matrix
W ∈ Rm×n mentioned in Sect. 3.1 and do not require additional calculations to
occupy computing time of edge nodes. So it does not bring burden to hardware
devices and saves cell phone battery power.

3.4 Train Low Rank Parameter Matrix


During truncation, although redundancy and unimportant information are
deleted, it is still harmful to neural network powerful expression ability. We
10 H. Zhou et al.

hope to minimize the accuracy loss caused by the truncation of singular val-
ues. So we train neural network parameters into a rank compact matrix whose
energy is more focused on previous singular values. The benefit of the parameter
matrix to be low rank for neural network is twofold. First, it brings greater gen-
eralization performance. Second, truncation of decomposed matrix sent in the
reporting stage will not cause too much loss of accuracy. Generally, we assume
neural network loss function l. So our training task is:

min l(x; w) . (15)

In order to ensure that the trained matrix is a low-rank matrix, we add the
nuclear norm to constrain the parameter matrix W . Now our task is

min l(x; w) + λ W ∗ . (16)

The hyperparameter λ measures the influence of nuclear norm on the entire


formula. One strategy is to use subgradient descent to solve this problem. First
W = U ΣV is SVD of W , then the sub-gradient of the above formula is ∇l+U V T .
The sub-gradient method can be used for non-differentiable objective functions
and can be applied to a wider range of problems. However, sub-gradient method
is much slower than stochastic gradient descent method, which will cause the
problem of slow convergence. Another way is to use proximity operator [26]:

Wk+1 = proxγλΔ∗ (Wk − γ∇l(Wk )) (17)

to solve the problem. Later, it applies soft-thresholding operator to W . However,


it still involves singular value decomposition of the parameter matrix W in each
mini batch gradient descent round, which is not time-efficient. So we replace the
nuclear norm with Frobrenius norm which has the advantages of being smooth
and differentiable to constrain parameter matrix rank. Now our task is:

min l(x; w) + λ W F . (18)

3.5 Noise Reduction Method


Because common machine cannot store gradients of all training samples in its
memory, SGD feeds a fraction of samples to models to complete this training
round. The direction of the gradient descent completely depends on gradient cal-
culation results of current mini batch, resulting in a large variance. When model
gets to around local optimal point, the noise will make it oscillate back and forth
around destination and cannot shrink immediately. We treat low-rank trunca-
tion of model weight matrix as a kind of noise applied to the gradient. According
to Jorge Nocedal et al, there are three ways to reduce variance [27]. The first
type is the dynamic sampling method, which reduces the variance of gradient
estimation by gradually increasing sample size when calculating gradient. The
second type is iterative averaging method which averages the parameter matrix
 obtained after each training round with historically stored parameter matrix
W
Low Rank Communication for Federated Learning 11

to reduce its variance; The third type is gradient aggregation method, which
stores historical gradient of each sample and directly or indirectly uses historical
or current gradients of all samples to make corrections during each mini-batch
estimation of gradient. Compared to the second method, both first and third
methods require edge nodes to store many gradients locally. We are more willing
to transfer this workload to the parameter server which performs only gradient
aggregation task before. Let the server store the historical parameter matrix sent
by each client at each round. The method is described as follows. Before server
applying weight aggregation, the parameter server first uses the tail averaging
method [28]:
1

w k+1 ← Σ k+1 w j (19)
k − s + 1 j=s+1
to reduce its variance for each client. Compared to complicated explanations
given in [28], it is very easy to understand why (20) only averages the nearest
k − s + 1 historical gradients. According to the definition of model’s expected
generalization error:
2 2 2
Emodel (f ; D) = ED [(f (x; D) − y) ] = ED [(f (x) − y) ] + ED [(f (x; D) − f (x)) ],
(20)
the initial model has a poor ability to fit the data set, so its variance is large
and the bias is small. As the number of training rounds increases, the model
becomes more complex, characterized by small bias and large variances. Only
recent models can help maintain a low-bias feature while reducing variances.

Table 1. Model

3 × 3 conv. 96 ReLU
3 × 3 conv. 96 ReLU
3 × 3 conv. 96 ReLU stride 2
3 × 3 conv. 192 ReLU
3 × 3 conv. 192 ReLU
3 × 3 conv. 192 ReLU stride 2
3 × 3 conv. 192 ReLU
1 × 1 conv. 192 ReLU
1 × 1 conv. 10 ReLU
Global averaging layer
10 or 100-way softmax

4 Experiment
4.1 Datasets
We evaluate the performance of our algorithm on 3 datasets: MNIST [29],
CIFAR-10 and CIFAR-100 [30]. MNIST is a large handwritten digit datasets
12 H. Zhou et al.

with a training set of 60,000 examples and a test set of 10,000 examples. The
CIFAR-10 data set consists of 10 types of 32 × 32 color pictures, which contains a
total of 60,000 pictures, and each type contains 6000 pictures. 50000 pictures are
used as the training set, and 10,000 pictures are used as the test set. The CIFAR-
100 dataset has 100 categories, and the number of pictures in each category is
one tenth of CIFAR-10.

Fig. 4. It shows changes in accuracy on test set and convergence of three datasets after
adopting our strategy. Not prune means not adopted.

4.2 Parameter Setting


For us, training a high accuracy model is not our goal. We only care about
whether the accuracy can be maintained while hugely improving communica-
tion efficiency after using our Fedlr strategy. The learning rate, decay rate,
momentum, α, λ is set to 0.01, 10−6 , 0.9, 1, 0.01. For Sect. 3.4, sever keeps
each client 3 historical gradients. We set 5 clients, each of which gets 10,000
pictures after training dataset has been shuffled. The aggregation algorithm we
adopt is Mcmahan federated averaging algorithm [1]. The epoch size of each
client training round is 10 and the communication round is 45.

4.3 Model
We use All-CNN-C model (shown in Table 1) in [31] which implementes a convo-
lutional neural network with all convolutional layers. More convolutional layers
mean that we have more chances to compress our model, which makes our strat-
egy effects more convincing. This CNN model has a total of eleven layers. The
first seven layers are in the form of 4d tensor and can be processed by our strat-
egy. The other layers have much fewer parameters than them. So they are not
worth being compressed by our method.
Low Rank Communication for Federated Learning 13

Fig. 5. We show the effect of our strategy by average optimal k drop in the model fifth
layer. Initial rank is 192.

Fig. 6. We show CIFAR-10 datasets test accracy among different α in Sect. 3.2 to see
the effect of hyperparameters on the final accuracy of our model.

4.4 Results Analysis

As shown in Fig. 4, the experimental results show that our Fedlr strategy
performs very well on three datasets MNIST, CIFAR-10 and CIFAR-100. On
MNIST datasets, by sacrificing only 2% accuracy, optimal rank k reduces from
192 to 3 (Fig. 5), achieving 64× parameter matrix rank compression rate. In fact,
because the left singular matrix and the right singular matrix are transmitted
at the same time, model compression rate is actually only half of rank compres-
sion rate, 32×. And model only loses 4% accuracy on CIFAR-10 datasets and
convergence rate does not change much compared with normal FL without any
compression strategy. Although rank compression rate in the first few rounds is
only 4× for three datasets, it improves very fast. Only in a dozen rounds optimal
rank k could converge to a fixed value. In hundreds of rounds of FL, these times
14 H. Zhou et al.

can be omitted. At the same time, we notice the abnormal performance of rank
descent on the MNIST dataset. We think that CNN is very easy to learn the
characteristics of digital pictures. So model convergence rate is very fast. The
regularization term does not bring constraints to model weights. We need to
adjust hyperparameter λ in Sect. 3.3 from 0.01 to 0.05. The result proves our
opinion. The CIFAR datasets do not have such problems, so we do not make
this adjustment for them. As shown in Fig. 6, We find that final accuracy of the
model is not sensitive to the hyperparameter α. We think there are two pos-
sible reasons. The first point is that the number of clients is small and owing
training set is large, they are very easy to learn core knowledge. The second
point is that we train a low-rank parameter matrix, which causes the previous
singular values to be large. It is difficult to decrease the optimal k even with a
larger hyperparameter α. These two reasons inspire our future work to explore
the correlation between the value of α and the accuracy of the model when there
are a large number of clients with a small training set. We hope this research
will provide a minimum bound for the number of needed filters to reconstruct
original convolutional layers and guide the design of low-rank filters.

5 Conclusions

Under FL setting, we use a low-rank communication to compress model param-


eter matrix. In a communication network, parameter server can quickly receive
clients responses without worrying about the obvious loss of accuracy. Our algo-
rithm is verified by extensive experimental evaluation on public datasets.

Acknowledgement. This work was supported by National Key R&D Program of


China (No. 2017YFC0803700), NSFC grants (No. 61532021 and 61972155), Shang-
hai Knowledge Service Platform Project (No. ZF1213) and Zhejiang Lab (No.
2019KB0AB04).

References
1. McMahan, H.B., Moore, E., Ramage, D., Hampson, S.: Communication-efficient
learning of deep networks from decentralized data. arXiv preprint arXiv:1602.05629
(2016)
2. Liu, Y., et al.: A communication efficient vertical federated learning framework.
arXiv preprint arXiv:1912.11187 (2019)
3. Reisizadeh, A., Mokhtari, A., Hassani, H., Jadbabaie, A., Pedarsani, R.: FedPAQ:
a communication-efficient federated learning method with periodic averaging and
quantization. arXiv preprint arXiv:1909.13014 (2019)
4. Sattler, F., Wiedemann, S., Müller, K.R., et al.: Robust and communication-
efficient federated learning from non-IID data. arXiv preprint arXiv:1903.02891
(2019)
5. Srinivas, S., Subramanya, A., Venkatesh Babu, R.: Training sparse neural net-
works. In: Proceedings of the IEEE Conference on Computer Vision and Pattern
Recognition Workshops, pp. 138–145 (2017)
Low Rank Communication for Federated Learning 15

6. Liu, Z., Li, J., Shen, Z., Huang, G., Yan, S., Zhang, C.: Learning efficient convolu-
tional networks through network slimming. In: Proceedings of the IEEE Interna-
tional Conference on Computer Vision, pp. 2736–2744 (2017)
7. Zhu, M., Gupta, S.: To prune, or not to prune: exploring the efficacy of pruning
for model compression. arXiv preprint arXiv:1710.01878 (2017)
8. Frankle, J., Carbin, M.: The lottery ticket hypothesis: finding sparse, trainable
neural networks. arXiv preprint arXiv:1803.03635 (2018)
9. Luo, J.H., Wu, J., Lin, W.: Thinet: a filter level pruning method for deep neural
network compression. In: Proceedings of the IEEE International Conference on
Computer Vision, pp. 5058–5066 (2017)
10. Ullrich, K., Meeds, E., Welling, M.: Soft weight-sharing for neural network com-
pression. arXiv preprint arXiv:1702.04008 (2017)
11. Denton, E.L., Zaremba, W., Bruna, J., LeCun, Y., Fergus, R.: Exploiting linear
structure within convolutional networks for efficient evaluation. In: Advances in
Neural Information Processing Systems, pp. 1269–1277 (2014)
12. Jaderberg, M., Vedaldi, A., Zisserman, A.: Speeding up convolutional neural net-
works with low rank expansions. arXiv preprint arXiv:1405.3866 (2014)
13. Guo, Y.: A survey on methods and theories of quantized neural networks. arXiv
preprint arXiv:1808.04752 (2018)
14. Shayer, O., Levi, D., Fetaya, E.: Learning discrete weights using the local repa-
rameterization trick. arXiv preprint arXiv:1710.07739 (2017)
15. Han, S., Mao, H., Dally, W.J.: Deep compression: compressing deep neural net-
works with pruning, trained quantization and huffman coding. arXiv preprint
arXiv:1510.00149 (2015)
16. Konečný, J., Richtárik, P.: Randomized distributed mean estimation: accuracy vs.
communication. Front. Appl. Math. Stat. 4, 62 (2018)
17. Alistarh, D., Grubic, D., Li, J., Tomioka, R., Vojnovic, M.: QSGD: communication-
efficient SGD via gradient quantization and encoding. In: Advances in Neural Infor-
mation Processing Systems, pp. 1709–1720 (2017)
18. Horvath, S., Ho, C.Y., Horvath, L., Sahu, A.N., Canini, M., Richtarik, P.: Natural
compression for distributed deep learning. arXiv preprint arXiv:1905.10988 (2019)
19. Wu, J., Huang, W., Huang, J., Zhang, T.: Error compensated quantized SGD
and its applications to large-scale distributed optimization. arXiv preprint
arXiv:1806.08054 (2018)
20. Suresh, A.T., Yu, F.X., Kumar, S., McMahan, H.B.: Distributed mean estimation
with limited communication. In: Proceedings of the 34th International Conference
on Machine Learning, vol. 70, pp. 3329–3337. JMLR. org (2017)
21. Caldas, S., Konečny, J., McMahan, H.B., Talwalkar, A.: Expanding the reach
of federated learning by reducing client resource requirements. arXiv preprint
arXiv:1812.07210 (2018)
22. Prabhavalkar, R., Alsharif, O., Bruguier, A., McGraw, L.: On the compression of
recurrent neural networks with an application to LVCSR acoustic modeling for
embedded speech recognition. In: 2016 IEEE International Conference on Acous-
tics, Speech and Signal Processing (ICASSP), pp. 5970–5974. IEEE (2016)
23. Langeberg, P., Balda, E.R., Behboodi, A., Mathar, R.: On the effect of low-
rank weights on adversarial robustness of neural networks. arXiv preprint
arXiv:1901.10371 (2019)
24. Kalman, D.: A singularly valuable decomposition: the SVD of a matrix. Coll. Math.
J. 27(1), 2–23 (1996)
Another random document with
no related content on Scribd:
Venise, qui ne subit aucune des agitations de la mer, semblait
vivante, tant ses millions de paillettes frissonnaient. Jamais chanteur
ne se trouva sur un plus magnifique théâtre. Genovese prit le ciel et
la mer à témoin par un mouvement d’emphase; puis, sans autre
accompagnement que le murmure de la mer, il chanta l’air d’ombra
adorata, le chef-d’œuvre de Crescentini. Ce chant, qui s’éleva entre
les fameuses statues de Saint-Théodore et Saint-Georges, au sein
de Venise déserte, éclairée par la lune, les paroles si bien en
harmonie avec ce théâtre, et la mélancolique expression de
Genovese, tout subjugua les Italiens et le Français. Aux premiers
mots, Vendramin eut le visage couvert de grosses larmes. Capraja
fut immobile comme une des statues du palais ducal. Cataneo parut
ressentir une émotion. Le Français, surpris, réfléchissait comme un
savant saisi par un phénomène qui casse un de ses axiomes
fondamentaux. Ces quatre esprits si différents, dont les espérances
étaient si pauvres, qui ne croyaient à rien ni pour eux ni après eux,
qui se faisaient à eux-mêmes la concession d’être une forme
passagère et capricieuse, comme une herbe ou quelque coléoptère,
entrevirent le ciel. Jamais la musique ne mérita mieux son épithète
de divine. Les sons consolateurs partis de ce gosier environnaient
les âmes de nuées douces et caressantes. Ces nuées, à demi
visibles, comme les cimes de marbre qu’argentait alors la lune
autour des auditeurs, semblaient servir de siéges à des anges dont
les ailes exprimaient l’adoration, l’amour, par des agitations
religieuses. Cette simple et naïve mélodie, en pénétrant les sens
intérieurs, y apportait la lumière. Comme la passion était sainte!
Mais quel affreux réveil la vanité du ténor préparait à ces nobles
émotions.
—Suis-je un mauvais chanteur? dit Genovese après avoir
terminé l’air.
Tous regrettèrent que l’instrument ne fût pas une chose céleste.
Cette musique angélique était donc due à un sentiment d’amour-
propre blessé. Le chanteur ne sentait rien, il ne pensait pas plus aux
pieux sentiments, aux divines images qu’il soulevait dans les cœurs,
que le violon ne sait ce que Paganini lui fait dire. Tous avaient voulu
voir Venise soulevant son linceul et chantant elle-même, et il ne
s’agissait que du fiasco d’un ténor.
—Devinez-vous le sens d’un pareil phénomène? demanda le
médecin à Capraja en désirant faire causer l’homme que la
duchesse lui avait signalé comme un profond penseur.
—Lequel?... dit Capraja.
—Genovese, excellent quand la Tinti n’est pas là, devient auprès
d’elle un âne qui brait, dit le Français.
—Il obéit à une loi secrète dont la démonstration mathématique
sera peut-être donnée par un de vos chimistes, et que le siècle
suivant trouvera dans une formule pleine d’X, d’A et de B entremêlés
de petites fantaisies algébriques, de barres, de signes et de lignes
qui me donnent la colique, en ce que les plus belles inventions de la
Mathématique n’ajoutent pas grand’chose à la somme de nos
jouissances. Quand un artiste a le malheur d’être plein de la passion
qu’il veut exprimer, il ne saurait la peindre, car il est la chose même
au lieu d’en être l’image. L’art procède du cerveau et non du cœur.
Quand votre sujet vous domine, vous en êtes l’esclave et non le
maître. Vous êtes comme un roi assiégé par son peuple. Sentir trop
vivement au moment où il s’agit d’exécuter, c’est l’insurrection des
sens contre la faculté!
—Ne devrions-nous pas nous convaincre de ceci par un nouvel
essai, demanda le médecin.
—Cataneo, tu peux mettre encore en présence ton ténor et la
prima donna, dit Capreja à son ami Cataneo.
—Messieurs, répondit le duc, venez souper chez moi. Nous
devons réconcilier le ténor avec la Clarina, sans quoi la saison serait
perdue pour Venise.
L’offre fut acceptée.
—Gondoliers! cria Cataneo.
—Un instant, dit Vendramin au duc, Memmi m’attend à Florian, je
ne veux pas le laisser seul, grisons-le ce soir, ou il se tuera demain...
—Corpo santo, s’écria le duc, je veux conserver ce brave garçon
pour le bonheur et l’avenir de ma famille, je vais l’inviter.
Tous revinrent au café Florian, où la foule était animée par
d’orageuses discussions, qui cessèrent à l’aspect du ténor. Dans un
coin, près d’une des fenêtres donnant sur la galerie, sombre, l’œil
fixe, les membres immobiles, le prince offrait une horrible image du
désespoir.
—Ce fou, dit en français le médecin à Vendramin, ne sait pas ce
qu’il veut! Il se rencontre au monde un homme qui peut séparer une
Massimilla Doni de toute la création, en la possédant dans le ciel, au
milieu des pompes idéales qu’aucune puissance ne peut réaliser ici-
bas. Il peut voir sa maîtresse toujours sublime et pure, toujours
entendre en lui-même ce que nous venons d’écouter au bord de la
mer, toujours vivre sous le feu de deux yeux qui lui font l’atmosphère
chaude et dorée que Titien a mise autour de sa vierge dans son
Assomption, et que Raphaël le premier avait inventée, après
quelque révélation, pour le Christ transfiguré, et cet homme n’aspire
qu’à barbouiller cette poésie! Par mon ministère, il réunira son
amour sensuel et son amour céleste dans cette seule femme! Enfin
il fera comme nous tous, il aura une maîtresse. Il possédait une
divinité, il en veut faire une femelle! Je vous le dis, monsieur, il
abdique le ciel. Je ne réponds pas que plus tard il ne meure de
désespoir. O figures féminines, finement découpées par un ovale pur
et lumineux, qui rappelez les créations où l’art a lutté
victorieusement avec la nature! Pieds divins qui ne pouvez marcher,
tailles sveltes qu’un souffle terrestre briserait, formes élancées qui
ne concevront jamais, vierges entrevues par nous au sortir de
l’enfance, admirées en secret, adorées sans espoir, enveloppées
des rayons de quelque désir infatigable, vous qu’on ne revoit plus,
mais dont le sourire domine toute notre existence, quel pourceau
d’Épicure a jamais voulu vous plonger dans la fange de la terre! Eh!
monsieur, le soleil ne rayonne sur la terre et ne l’échauffe que parce
qu’il est à trente-trois millions de lieues; allez auprès, la science vous
avertit qu’il n’est ni chaud ni lumineux, car la science sert à quelque
chose, ajouta-t-il en regardant Capraja.
—Pas mal pour un médecin français! dit Capraja en frappant un
petit coup de main sur l’épaule de l’étranger. Vous venez d’expliquer
ce que l’Europe comprend le moins de Dante, sa Bice! ajouta-t-il.
Oui, Béatrix, cette figure idéale, la reine des fantaisies du poëte, élue
entre toutes, consacrée par les larmes, déifiée par le souvenir, sans
cesse rajeunie par des désirs inexaucés!
—Mon prince, disait le duc à l’oreille d’Émilio, venez souper avec
moi. Quand on prend à un pauvre Napolitain sa femme et sa
maîtresse, on ne peut lui rien refuser.
Cette bouffonnerie napolitaine, dite avec le bon ton
aristocratique, arracha un sourire à Émilio, qui se laissa prendre par
le bras et emmener. Le duc avait commencé par expédier chez lui
l’un des garçons du café. Comme le palais Memmi était dans le
canal Grande, du côté de Santa-Maria della Salute, il fallait y aller en
faisant le tour à pied par le Rialto, ou s’y rendre en gondole; mais les
convives ne voulurent pas se séparer, et chacun préféra marcher à
travers Venise. Le duc fut obligé par ses infirmités de se jeter dans
sa gondole.
Vers deux heures du matin, qui eût passé devant le palais
Memmi l’aurait vu vomissant la lumière sur les eaux du grand canal
par toutes ses croisées, aurait entendu la délicieuse ouverture de la
Semiramide, exécutée au bas de ses degrés par l’orchestre de la
Fenice, qui donnait une sérénade à la Tinti. Les convives étaient à
table dans la galerie du second étage. Du haut du balcon, la Tinti
chantait en remerciement le buona sera d’Almaviva, pendant que
l’intendant du duc distribuait aux pauvres artistes les libéralités de
son maître, en les conviant à un dîner pour le lendemain; politesses
auxquelles sont obligés les grands seigneurs qui protégent des
cantatrices, et les dames qui protégent des chanteurs. Dans ce cas,
il faut nécessairement épouser tout le théâtre. Cataneo faisait
richement les choses, il était le croupier de l’entrepreneur, et cette
saison lui coûta deux mille écus. Il avait fait venir le mobilier du
palais, un cuisinier français, des vins de tous les pays. Aussi croyez
que le souper fut royalement servi. Placé à côté de la Tinti, le prince
sentit vivement, pendant tout le souper, ce que les poëtes appellent
dans toutes les langues les flèches de l’amour. L’image de la
sublime Massimilla s’obscurcissait comme l’idée de Dieu se couvre
parfois des nuages du doute dans l’esprit des savants solitaires. La
Tinti se trouvait la plus heureuse femme de la terre en se voyant
aimée par Émilio; sûre de le posséder, elle était animée d’une joie
qui se reflétait sur son visage, sa beauté resplendissait d’un éclat si
vif, que chacun en vidant son verre ne pouvait s’empêcher de
s’incliner vers elle par un salut d’admiration.
—La duchesse ne vaut pas la Tinti, disait le médecin en oubliant
sa théorie sous le feu des yeux de la Sicilienne.
Le ténor mangeait et buvait mollement, il semblait vouloir
s’identifier à la vie de la prima donna, et perdait ce gros bon sens de
plaisir qui distingue les chanteurs italiens.
—Allons, signorina, dit le duc en adressant un regard de prière à
la Tinti, et vous caro primo uomo, dit-il à Genovese, confondez vos
voix dans un accord parfait. Répétez l’ut de Qual portento, à l’arrivée
de la lumière dans l’oratorio, pour convaincre mon vieil ami Capraja
de la supériorité de l’accord sur la roulade!
—Je veux l’emporter sur le prince qu’elle aime, car cela crève les
yeux, elle l’adore! se dit Genovese en lui-même.
Quelle fut la surprise des convives qui avaient écouté Genovese
au bord de la mer, en l’entendant braire, roucouler, miauler, grincer,
se gargariser, rugir, détonner, aboyer, crier, figurer même des sons
qui se traduisaient par un râle sourd; enfin, jouer une comédie
incompréhensible en offrant aux regards étonnés une figure exaltée
et sublime d’expression, comme celle des martyrs peints par
Zurbaran, Murillo, Titien et Raphaël. Le rire que chacun laissa
échapper se changea en un sérieux presque tragique au moment où
chacun s’aperçut que Genovese était de bonne foi. La Tinti parut
comprendre que son camarade l’aimait et avait dit vrai sur le théâtre,
pays de mensonges.
—Poverino! s’écriait-elle en caressant la main du prince sous la
table.
—Per dio santo, s’écria Capraja, m’expliqueras-tu quelle est la
partition que tu lis en ce moment, assassin de Rossini! Par grâce,
dis-nous ce qui se passe en toi, quel démon se débat dans ton
gosier.
—Le démon? reprit Genovese, dites le dieu de la musique. Mes
yeux, comme ceux de sainte Cécile, aperçoivent des anges qui, du
doigt, me font suivre une à une les notes de la partition écrite en
traits de feu, et j’essaie de lutter avec eux. Per dio, ne me
comprenez-vous pas? le sentiment qui m’anime a passé dans tout
mon être; dans mon cœur et dans mes poumons. Mon gosier et ma
cervelle ne font qu’un seul souffle. N’avez-vous jamais en rêve
écouté de sublimes musiques, pensées par des compositeurs
inconnus qui emploient le son pur que la nature a mis en toute chose
et que nous réveillons plus ou moins bien par les instruments avec
lesquels nous composons des masses colorées, mais qui, dans ces
concerts merveilleux, se produit dégagé des imperfections qu’y
mettent les exécutants, ils ne peuvent pas être tout sentiment, tout
âme?... eh! bien, ces merveilles, je vous les rends, et vous me
maudissez! Vous êtes aussi fou que le parterre de la Fenice, qui m’a
sifflé. Je méprisais ce vulgaire de ne pas pouvoir monter avec moi
sur la cime d’où l’on domine l’art, et c’est à des hommes
remarquables, un Français... Tiens, il est parti!...
—Depuis une demi-heure, dit Vendramin.
—Tant pis! il m’aurait peut-être compris, puisque de dignes
Italiens, amoureux de l’art, ne me comprennent pas...
—Va, va, va! dit Capraja en frappant de petits coups sur la tête
du ténor en souriant, galope sur l’hippogriffe du divin Ariosto; cours
après tes brillantes chimères, theriaki musical.
En effet, chaque convive, convaincu que Genovese était ivre, le
laissait parler sans l’écouter. Capraja seul avait compris la question
posée par le Français.
Pendant que le vin de Chypre déliait toutes les langues, et que
chacun caracolait sur son dada favori, le médecin attendait la
duchesse dans une gondole, après lui avoir fait remettre un mot écrit
par Vendramin. Massimilla vint dans ses vêtements de nuit, tant elle
était alarmée des adieux que lui avait faits le prince, et surprise par
les espérances que lui donnait cette lettre.
—Madame, dit le médecin à la duchesse en la faisant asseoir et
donnant l’ordre du départ aux gondoliers, il s’agit en ce moment de
sauver la vie à Émilio Memmi, et vous seule avez ce pouvoir.
—Que faut-il faire? demanda-t-elle.
—Ah! vous résignerez-vous à jouer un rôle infâme malgré la plus
noble figure qu’il soit possible d’admirer en Italie. Tomberez-vous, du
ciel bleu où vous êtes, au lit d’une courtisane? Enfin, vous, ange
sublime, vous, beauté pure et sans tache, consentirez-vous à
deviner l’amour de la Tinti, chez elle, et de manière à tromper
l’ardent Émilio que l’ivresse rendra d’ailleurs peu clairvoyant?
—Ce n’est que cela, dit-elle en souriant et en montrant au
Français étonné un coin inaperçu par lui du délicieux caractère de
l’Italienne aimante. Je surpasserai la Tinti, s’il le faut, pour sauver la
vie à mon ami.
—Et vous confondrez en un seul deux amours séparés chez lui
par une montagne de poésie qui fondra comme la neige d’un glacier
sous les rayons du soleil en été.
—Je vous aurai d’éternelles obligations, dit gravement la
duchesse.
Quand le médecin français rentra dans la galerie, où l’orgie avait
pris le caractère de la folie vénitienne, il eut un air joyeux qui
échappa au prince fasciné par la Tinti, de laquelle il se promettait les
enivrantes délices qu’il avait déjà goûtées. La Tinti nageait en vraie
Sicilienne dans les émotions d’une fantaisie amoureuse sur le point
d’être satisfaite. Le Français dit quelques mots à l’oreille de
Vendramin, et la Tinti s’en inquiéta.
—Que complotez-vous? demanda-t-elle à l’ami du prince.
—Êtes-vous bonne fille? lui dit à l’oreille le médecin qui avait la
dureté de l’opérateur.
Ce mot entra dans l’entendement de la pauvre fille comme un
coup de poignard dans le cœur.
—Il s’agit de sauver la vie à Émilio! ajouta Vendramin.
—Venez, dit le médecin à la Tinti.
La pauvre cantatrice se leva et alla au bout de la table, entre
Vendramin et le médecin, où elle parut être comme une criminelle
entre son confesseur et son bourreau. Elle se débattit longtemps,
mais elle succomba par amour pour Émilio. Le dernier mot du
médecin fut: Et vous guérirez Genovese!
La Tinti dit un mot au ténor en faisant le tour de la table. Elle
revint au prince, le prit par le cou, le baisa dans les cheveux avec
une expression de désespoir qui frappa Vendramin et le Français,
les seuls qui eussent leur raison, puis elle s’alla jeter dans sa
chambre. Émilio, voyant Genovese quitter la table, et Cataneo
enfoncé dans une longue discussion musicale avec Capraja, se
coula vers la porte de la chambre de la Tinti, souleva la portière et
disparut comme une anguille dans la vase.
—Hé! bien, Cataneo, disait Capraja, tu as tout demandé aux
jouissances physiques, et te voilà suspendu dans la vie à un fil,
comme un arlequin de carton, bariolé de cicatrices, et ne jouant que
si l’on tire la ficelle d’un accord.
—Mais toi, Capraja, qui as tout demandé aux idées, n’es-tu pas
dans le même état, ne vis-tu pas à cheval sur une roulade?
—Moi, je possède le monde entier, dit Capraja qui fit un geste
royal en étendant la main.
—Et moi je l’ai déjà dévoré, répliqua le duc.
Ils s’aperçurent que le médecin et Vendramin étaient partis, et
qu’ils se trouvaient seuls.
Le lendemain, après la plus heureuse des nuits heureuses, le
sommeil du prince fut troublé par un rêve. Il sentait des perles sur la
poitrine qui lui étaient versées par un ange, il se réveilla, il était
inondé par les larmes de Massimilla Doni, dans les bras de laquelle
il se trouvait, et qui le regardait dormant.
Genovese, le soir à la Fenice, quoique sa camarade Tinti ne l’eût
pas laissé se lever avant deux heures après-midi, ce qui, dit-on, nuit
à la voix d’un ténor, chanta divinement son rôle dans la Semiramide,
il fut redemandé avec la Tinti, il y eut de nouvelles couronnes
données, le parterre fut ivre de joie, le ténor ne s’occupait plus de
séduire la prima donna par les charmes d’une méthode angélique.
Vendramin fut le seul que le médecin ne put guérir. L’amour
d’une patrie qui n’existe plus est une passion sans remède. Le jeune
Vénitien, à force de vivre dans sa république du treizième siècle, et
de coucher avec cette grande courtisane amenée par l’opium, et de
se retrouver dans la vie réelle où le reconduisait l’abattement,
succomba, plaint et chéri de ses amis.
L’auteur n’ose pas dire le dénoûment de cette aventure, il est trop
horriblement bourgeois. Un mot suffira pour les adorateurs de l’idéal.
La duchesse était grosse!
Les péris, les ondines, les fées, les sylphides du vieux temps, les
muses de la Grèce, les vierges de marbre de la Certosa di Pavia, le
Jour et la Nuit de Michel-Ange, les petits anges que Bellini le premier
mit au bas des tableaux d’église, et que Raphaël a faits si
divinement au bas de la vierge au donataire, et de la madone qui
gèle à Dresde, les délicieuses filles d’Orcagna, dans l’église de San-
Michele à Florence, les chœurs célestes du tombeau de saint
Sébald à Nuremberg, quelques vierges du Duomo de Milan, les
peuplades de cent cathédrales gothiques, tout le peuple des figures
qui brisent leur forme pour venir à vous, artistes compréhensifs,
toutes ces angéliques filles incorporelles accoururent autour du lit de
Massimilla, et y pleurèrent!

Paris, 25 mai 1839.


GAMBARA.

A M. LE MARQUIS DE BELLOY.
C’est au coin du feu, dans une mystérieuse, dans une
splendide retraite qui n’existe plus, mais qui vivra dans notre
souvenir, et d’où nos yeux découvraient Paris, depuis les
collines de Bellevue jusqu’à celles de Belleville, depuis
Montmartre jusqu’à l’Arc-de-Triomphe de l’Étoile, que, par
une matinée arrosée de thé, à travers les mille idées qui
naissent et s’éteignent comme des fusées dans votre
étincelante conversation, vous avez, prodigue d’esprit, jeté
sous ma plume ce personnage digne d’Hoffman, ce porteur
de trésors inconnus, ce pèlerin assis à la porte du Paradis,
ayant des oreilles pour écouter les chants des anges, et
n’ayant plus de langue pour les répéter, agitant sur les
touches d’ivoire des doigts brisés par les contractions de
l’inspiration divine, et croyant exprimer la musique du ciel à
des auditeurs stupéfaits. Vous avez créé GAMBARA, je ne l’ai
qu’habillé. Laissez-moi rendre à César ce qui appartient à
César, en regrettant que vous ne saisissiez pas la plume à
une époque où les gentilshommes doivent s’en servir aussi
bien que de leur épée, afin de sauver leur pays. Vous pouvez
ne pas penser à vous; mais vous nous devez vos talents.

Le premier jour de l’an mil huit cent trente et un vidait ses cornets
de dragées, quatre heures sonnaient, il y avait foule au Palais-Royal,
et les restaurants commençaient à s’emplir. En ce moment un coupé
s’arrêta devant le perron, il en sortit un jeune homme de fière mine,
étranger sans doute; autrement il n’aurait eu ni le chasseur à plumes
aristocratiques, ni les armoiries que les héros de juillet poursuivaient
encore. L’étranger entra dans le Palais-Royal et suivit la foule sous
les galeries, sans s’étonner de la lenteur à laquelle l’affluence des
curieux condamnait sa démarche, il semblait habitué à l’allure noble
qu’on appelle ironiquement un pas d’ambassadeur; mais sa dignité
sentait un peu le théâtre: quoique sa figure fût belle et grave, son
chapeau, d’où s’échappait une touffe de cheveux noirs bouclés,
inclinait peut-être un peu trop sur l’oreille droite, et démentait sa
gravité par un air tant soit peu mauvais sujet; ses yeux distraits et à
demi fermés laissaient tomber un regard dédaigneux sur la foule.
—Voilà un jeune homme qui est fort beau, dit à voix basse une
grisette en se rangeant pour le laisser passer.
—Et qui le sait trop, répondit tout haut sa compagne qui était
laide.
Après un tour de galerie, le jeune homme regarda tour à tour le
ciel et sa montre, fit un geste d’impatience, entra dans un bureau de
tabac, y alluma un cigare, se posa devant une glace, et jeta un
regard sur son costume, un peu plus riche que ne le permettent en
France les lois du goût. Il rajusta son col et son gilet de velours noir
sur lequel se croisait plusieurs fois une de ces grosses chaînes d’or
fabriquées à Gênes; puis, après avoir jeté par un seul mouvement
sur son épaule gauche son manteau doublé de velours en le drapant
avec élégance, il reprit sa promenade sans se laisser distraire par
les œillades bourgeoises qu’il recevait. Quand les boutiques
commencèrent à s’illuminer et que la nuit lui parut assez noire, il se
dirigea vers la place du Palais-Royal en homme qui craignait d’être
reconnu, car il côtoya la place jusqu’à la fontaine, pour gagner à
l’abri des fiacres l’entrée de la rue Froidmanteau, rue sale, obscure
et mal hantée; une sorte d’égout que la police tolère auprès du
Palais-Royal assaini, de même qu’un majordome italien laisserait un
valet négligent entasser dans un coin de l’escalier les balayures de
l’appartement. Le jeune homme hésitait. On eût dit d’une bourgeoise
endimanchée allongeant le cou devant un ruisseau grossi par une
averse. Cependant l’heure était bien choisie pour satisfaire quelque
honteuse fantaisie. Plus tôt on pouvait être surpris, plus tard on
pouvait être devancé. S’être laissé convier par un de ces regards qui
encouragent sans être provoquants; avoir suivi pendant une heure,
pendant un jour peut-être, une femme jeune et belle, l’avoir divinisée
dans sa pensée et avoir donné à sa légèreté mille interprétations
avantageuses; s’être repris à croire aux sympathies soudaines,
irrésistibles; avoir imaginé sous le feu d’une excitation passagère
une aventure dans un siècle où les romans s’écrivent précisément
parce qu’ils n’arrivent plus; avoir rêvé balcons, guitares,
stratagèmes, verrous, et s’être drapé dans le manteau d’Almaviva;
après avoir écrit un poëme dans sa fantaisie, s’arrêter à la porte d’un
mauvais lieu; puis, pour tout dénoûment, voir dans la retenue de sa
Rosine une précaution imposée par un règlement de police, n’est-ce
pas une déception par laquelle ont passé bien des hommes qui n’en
conviendront pas? Les sentiments les plus naturels sont ceux qu’on
avoue avec le plus de répugnance, et la fatuité est un de ces
sentiments-là. Quand la leçon ne va pas plus loin, un Parisien en
profite ou l’oublie, et le mal n’est pas grand; mais il n’en devait pas
être ainsi pour l’étranger, qui commençait à craindre de payer un peu
cher son éducation parisienne.
Ce promeneur était un noble Milanais banni de sa patrie, où
quelques équipées libérales l’avaient rendu suspect au
gouvernement autrichien. Le comte Andrea Marcosini s’était vu
accueillir à Paris avec cet empressement tout français qu’y
rencontreront toujours un esprit aimable, un nom sonore,
accompagnés de deux cent mille livres de rente et d’un charmant
extérieur. Pour un tel homme, l’exil devait être un voyage de plaisir;
ses biens furent simplement séquestrés, et ses amis l’informèrent
qu’après une absence de deux ans au plus, il pourrait sans danger
reparaître dans sa patrie. Après avoir fait rimer crudeli affanni avec i
miei tiranni dans une douzaine de sonnets, après avoir soutenu de
sa bourse les malheureux Italiens réfugiés, le comte Andrea, qui
avait le malheur d’être poëte, se crut libéré de ses idées patriotiques.
Depuis son arrivée, il se livrait donc sans arrière-pensée aux plaisirs
de tout genre que Paris offre gratis à quiconque est assez riche pour
les acheter. Ses talents et sa beauté lui avaient valu bien des succès
auprès des femmes qu’il aimait collectivement autant qu’il convenait
à son âge, mais parmi lesquelles il n’en distinguait encore aucune.
Ce goût était d’ailleurs subordonné en lui à ceux de la musique et de
la poésie qu’il cultivait depuis l’enfance, et où il lui paraissait plus
difficile et plus glorieux de réussir qu’en galanterie, puisque la nature
lui épargnait les difficultés que les hommes aiment à vaincre.
Homme complexe comme tant d’autres, il se laissait facilement
séduire par les douceurs du luxe sans lequel il n’aurait pu vivre, de
même qu’il tenait beaucoup aux distinctions sociales que ses
opinions repoussaient. Aussi ses théories d’artiste, de penseur, de
poëte, étaient-elles souvent en contradiction avec ses goûts, avec
ses sentiments, avec ses habitudes de gentilhomme millionnaire;
mais il se consolait de ces non-sens en les retrouvant chez
beaucoup de Parisiens, libéraux par intérêt, aristocrates par nature.
Il ne s’était donc pas surpris sans une vive inquiétude, le 31
décembre 1830, à pied, par un de nos dégels, attaché aux pas d’une
femme dont le costume annonçait une misère profonde, radicale,
ancienne, invétérée, qui n’était pas plus belle que tant d’autres qu’il
voyait chaque soir aux Bouffons, à l’Opéra, dans le monde, et
certainement moins jeune que madame de Manerville, de laquelle il
avait obtenu un rendez-vous pour ce jour même, et qui l’attendait
peut-être encore. Mais il y avait dans le regard à la fois tendre et
farouche, profond et rapide, que les yeux noirs de cette femme lui
dardaient à la dérobée, tant de douleurs et tant de voluptés
étouffées! Mais elle avait rougi avec tant de feu, quand, au sortir
d’un magasin où elle était demeurée un quart d’heure, et ses yeux
s’étaient si bien rencontrés avec ceux du Milanais, qui l’avait
attendue à quelques pas!... Il y avait enfin tant de mais et de si que
le comte, envahi par une de ces tentations furieuses pour lesquelles
il n’est de nom dans aucune langue, même dans celle de l’orgie,
s’était mis à la poursuite de cette femme, chassant enfin à la grisette
comme un vieux Parisien. Chemin faisant, soit qu’il se trouvât suivre
ou devancer cette femme, il l’examinait dans tous les détails de sa
personne ou de sa mise, afin de déloger le désir absurde et fou qui
s’était barricadé dans sa cervelle; il trouva bientôt à cette revue un
plaisir plus ardent que celui qu’il avait goûté la veille en contemplant,
sous les ondes d’un bain parfumé, les formes irréprochables d’une
personne aimée; parfois baissant la tête, l’inconnue lui jetait le
regard oblique d’une chèvre attachée près de la terre, et se voyant
toujours poursuivie, elle hâtait le pas comme si elle eût voulu fuir.
Néanmoins, quand un embarras de voitures ou tout autre accident
ramenait Andrea près d’elle, le noble la voyait fléchir sous son
regard, sans que rien dans ses traits exprimât le dépit. Ces signes
certains d’une émotion combattue donnèrent le dernier coup
d’éperon aux rêves désordonnés qui l’emportaient, et il galopa
jusqu’à la rue Froidmanteau, où, après bien des détours, l’inconnue
entra brusquement, croyant avoir dérobé sa trace à l’étranger, bien
surpris de ce manège. Il faisait nuit. Deux femmes tatouées de
rouge, qui buvaient du cassis sur le comptoir d’un épicier, virent la
jeune femme et l’appelèrent. L’inconnue s’arrêta sur le seuil de la
porte, répondit par quelques mots pleins de douceur au compliment
cordial qui lui fut adressé, et reprit sa course. Andrea, qui marchait
derrière elle, la vit disparaître dans une des plus sombres allées de
cette rue dont le nom lui était inconnu. L’aspect repoussant de la
maison où venait d’entrer l’héroïne de son roman lui causa comme
une nausée. En reculant d’un pas pour examiner les lieux, il trouva
près de lui un homme de mauvaise mine et lui demanda des
renseignements. L’homme appuya sa main droite sur un bâton
noueux, posa la gauche sur sa hanche, et répondit par un seul mot:
—Farceur! Mais en toisant l’Italien, sur qui tombait la lueur du
réverbère, sa figure prit une expression pateline.
—Ah! pardon, monsieur, reprit-il en changeant tout à coup de ton,
il y a aussi un restaurant, une sorte de table d’hôte où la cuisine est
fort mauvaise, et où l’on met du fromage dans la soupe. Peut-être
monsieur cherche-t-il cette gargote, car il est facile de voir au
costume que monsieur est Italien; les Italiens aiment beaucoup le
velours et le fromage. Si monsieur veut que je lui indique un meilleur
restaurant, j’ai à deux pas d’ici une tante qui aime beaucoup les
étrangers.
Andrea releva son manteau jusqu’à ses moustaches et s’élança
hors de la rue, poussé par le dégoût que lui causa cet immonde
personnage, dont l’habillement et les gestes étaient en harmonie
avec la maison ignoble où venait d’entrer l’inconnue. Il retrouva avec
délices les mille recherches de son appartement, et alla passer la
soirée chez la marquise d’Espard pour tâcher de laver la souillure de
cette fantaisie qui l’avait si tyranniquement dominé pendant une
partie de la journée. Cependant, lorsqu’il fut couché, par le
recueillement de la nuit, il retrouva sa vision du jour, mais plus lucide
et plus animée que dans la réalité. L’inconnue marchait encore
devant lui. Parfois, en traversant les ruisseaux, elle découvrait
encore sa jambe ronde. Ses hanches nerveuses tressaillaient à
chacun de ses pas. Andrea voulait de nouveau lui parler, et n’osait,
lui, Marcosini, noble Milanais! Puis il la voyait entrant dans cette
allée obscure qui la lui avait dérobée, et il se reprochait alors de ne
l’y avoir point suivie.—Car enfin, se disait-il, si elle m’évitait et voulait
me faire perdre ses traces, elle m’aime. Chez les femmes de cette
sorte, la résistance est une preuve d’amour. Si j’avais poussé plus
loin cette aventure, j’aurais fini peut-être par y rencontrer le dégoût,
et je dormirais tranquille. Le comte avait l’habitude d’analyser ses
sensations les plus vives, comme font involontairement les hommes
qui ont autant d’esprit que de cœur, et il s’étonnait de revoir
l’inconnue de la rue Froidmanteau, non dans la pompe idéale des
visions, mais dans la nudité de ses réalités affligeantes. Et
néanmoins, si sa fantaisie avait dépouillé cette femme de la livrée de
la misère, elle la lui aurait gâtée; car il la voulait, il la désirait, il
l’aimait avec ses bas crottés, avec ses souliers éculés, avec son
chapeau de paille de riz! Il la voulait dans cette maison même où il
l’avait vue entrer!—Suis-je donc épris du vice? se disait-il tout
effrayé. Je n’en suis pas encore là, j’ai vingt-trois ans et n’ai rien d’un
vieillard blasé. L’énergie même du caprice dont il se voyait le jouet le
rassurait un peu. Cette singulière lutte, cette réflexion et cet amour à
la course pourront à juste titre surprendre quelques personnes
habituées au train de Paris; mais elles devront remarquer que le
comte Andrea Marcosini n’était pas Français.
Élevé entre deux abbés qui, d’après la consigne donnée par un
père dévot, le lâchèrent rarement, Andrea n’avait pas aimé une
cousine à onze ans, ni séduit à douze la femme de chambre de sa
mère; il n’avait pas hanté ces colléges où l’enseignement le plus
perfectionné n’est pas celui que vend l’État; enfin il n’habitait Paris
que depuis quelques années: il était donc encore accessible à ces
impressions soudaines et profondes contre lesquelles l’éducation et
les mœurs françaises forment une égide si puissante. Dans les pays
méridionaux, de grandes passions naissent souvent d’un coup d’œil.
Un gentilhomme gascon, qui tempérait beaucoup de sensibilité par
beaucoup de réflexion, s’était approprié mille petites recettes contre
les soudaines apoplexies de son esprit et de son cœur, avait
conseillé au comte de se livrer au moins une fois par mois à quelque
orgie magistrale pour conjurer ces orages de l’âme qui, sans de
telles précautions, éclatent souvent mal à propos. Andrea se rappela
le conseil.—Eh! bien, pensa-t-il, je commencerai demain, premier
janvier.
Ceci explique pourquoi le comte Andrea Marcosini louvoyait si
timidement pour entrer dans la rue Froidmanteau. L’homme élégant
embarrassait l’amoureux, il hésita longtemps; mais après avoir fait
un dernier appel à son courage, l’amoureux marcha d’un pas assez
ferme jusqu’à la maison qu’il reconnut sans peine. Là, il s’arrêta
encore. Cette femme était-elle bien ce qu’il imaginait? N’allait-il pas
faire quelque fausse démarche? Il se souvint alors de la table d’hôte
italienne, et s’empressa de saisir un moyen terme qui servait à la
fois son désir et sa répugnance. Il entra pour dîner, et se glissa dans
l’allée au fond de laquelle il trouva, non sans tâtonner longtemps, les
marches humides et grasses d’un escalier qu’un grand seigneur
italien devait prendre pour une échelle. Attiré vers le premier étage
par une petite lampe posée à terre et par une forte odeur de cuisine,
il poussa la porte entr’ouverte et vit une salle brune de crasse et de
fumée où trottait une Léonarde occupée à parer une table d’environ
vingt couverts. Aucun des convives ne s’y trouvait encore. Après un
coup d’œil jeté sur cette chambre mal éclairée, et dont le papier
tombait en lambeaux, le noble alla s’asseoir près d’un poêle qui
fumait et ronflait dans un coin. Amené par le bruit que fit le comte en
entrant et déposant son manteau, le maître d’hôtel se montra
brusquement. Figurez-vous un cuisinier maigre, sec, d’une grande
taille, doué d’un nez grassement démesuré, et jetant autour de lui,
par moments et avec une vivacité fébrile, un regard qui voulait
paraître prudent. A l’aspect d’Andrea, dont toute la tenue annonçait
une grande aisance, il signor Giardini s’inclina respectueusement. Le
comte manifesta le désir de prendre habituellement ses repas en
compagnie de quelques compatriotes, de payer d’avance un certain
nombre de cachets, et sut donner à la conversation une tournure
familière afin d’arriver promptement à son but. A peine eut-il parlé de
son inconnue, que il signor Giardini fit un geste grotesque, et
regarda son convive d’un air malicieux, en laissant errer un sourire
sur ses lèvres.
—Basta! s’écria-t-il, capisco! Votre seigneurie est conduite ici par
deux appétits. La signora Gambara n’aura point perdu son temps, si
elle est parvenue à intéresser un seigneur aussi généreux que vous
paraissez l’être. En peu de mots, je vous apprendrai tout ce que
nous savons ici sur cette pauvre femme, vraiment bien digne de
pitié. Le mari est né, je crois, à Crémone, et arrive d’Allemagne; il
voulait faire prendre une nouvelle musique et de nouveaux
instruments chez les Tedeschi! N’est-ce pas à faire pitié? dit Giardini
en haussant les épaules. Il signor Gambara, qui se croit un grand
compositeur, ne me paraît pas fort sur tout le reste. Galant homme
d’ailleurs, plein de sens et d’esprit, quelquefois fort aimable, surtout
quand il a bu quelques verres de vin, cas rare, vu sa profonde
misère, il s’occupe nuit et jour à composer des opéras et des
symphonies imaginaires, au lieu de chercher à gagner honnêtement
sa vie. Sa pauvre femme est réduite à travailler pour toute sorte de
monde, le monde de la borne! Que voulez-vous? elle aime son mari
comme un père et le soigne comme un enfant. Beaucoup de jeunes
gens ont dîné chez moi pour faire leur cour à madame, mais pas un
n’a réussi, dit-il en appuyant sur le dernier mot. La signora Marianna
est sage, mon cher monsieur, trop sage pour son malheur! Les
hommes ne donnent rien pour rien aujourd’hui. La pauvre femme
mourra donc à la peine. Vous croyez que son mari la récompense de
ce dévouement?... bah! monsieur ne lui accorde pas un sourire; et
leur cuisine se fait chez le boulanger, car, non-seulement ce diable
d’homme ne gagne pas un sou, mais encore il dépense tout le fruit
du travail de sa femme en instruments qu’il taille, qu’il allonge, qu’il
raccourcit, qu’il démonte et remonte jusqu’à ce qu’ils ne puissent
plus rendre que des sons à faire fuir les chats; alors il est content. Et
pourtant vous verrez en lui le plus doux, le meilleur de tous les
hommes, et nullement paresseux, il travaille toujours. Que vous
dirai-je? il est fou et ne connaît pas son état. Je l’ai vu, limant et
forgeant ses instruments, manger du pain noir avec un appétit qui
me faisait envie à moi-même, à moi, monsieur, qui ai la meilleure
table de Paris. Oui, Excellence, avant un quart d’heure vous saurez
quel homme je suis. J’ai introduit dans la cuisine italienne des
raffinements qui vous surprendront. Excellence, je suis Napolitain,
c’est-à-dire né cuisinier. Mais à quoi sert l’instinct sans la science? la
science! j’ai passé trente ans à l’acquérir, et voyez où elle m’a
conduit. Mon histoire est celle de tous les hommes de talent! Mes
essais, mes expériences ont ruiné trois restaurants successivement
fondés à Naples, à Parme et à Rome. Aujourd’hui, que je suis
encore réduit à faire métier de mon art, je me laisse aller le plus
souvent à ma passion dominante. Je sers à ces pauvres réfugiés
quelques-uns de mes ragoûts de prédilection. Je me ruine ainsi!
Sottise, direz-vous? Je le sais; mais que voulez-vous? le talent
m’emporte, et je ne puis résister à confectionner un mets qui me
sourit. Ils s’en aperçoivent toujours, les gaillards. Ils savent bien, je
vous le jure, qui de ma femme ou de moi a servi la batterie.
Qu’arrive-t-il? de soixante et quelques convives que je voyais
chaque jour à ma table, à l’époque où j’ai fondé ce misérable
restaurant, je n’en reçois plus aujourd’hui qu’une vingtaine environ à
qui je fais crédit pour la plupart du temps. Les Piémontais, les
Savoyards sont partis; mais les connaisseurs, les gens de goût, les
vrais Italiens me sont restés. Aussi, pour eux, n’est-il sacrifice que je
ne fasse! je leur donne bien souvent pour vingt-cinq sous par tête un
dîner qui me revient au double.
La parole du signor Giardini sentait tant la naïve rouerie
napolitaine, que le comte charmé se crut encore à Gérolamo.
—Puisqu’il en est ainsi, mon cher hôte, dit-il familièrement au
cuisinier, puisque le hasard et votre confiance m’ont mis dans le
secret de vos sacrifices journaliers, permettez-moi de doubler la
somme.
En achevant ces mots, Andrea faisait tourner sur le poêle une
pièce de quarante francs, sur laquelle le signor Giardini lui rendit
religieusement deux francs cinquante centimes, non sans quelques
façons discrètes qui le réjouirent fort.
—Dans quelques minutes, reprit Giardini, vous allez voir votre
domina. Je vous placerai près du mari, et si vous voulez être dans
ses bonnes grâces, parlez musique, je les ai invités tous deux,
pauvres gens! A cause du nouvel an, je régale mes hôtes d’un mets
dans la confection duquel je crois m’être surpassé...
La voix du signor Giardini fut couverte par les bruyantes
félicitations des convives qui vinrent deux à deux, un à un, assez
capricieusement, suivant la coutume des tables d’hôte. Giardini
affectait de se tenir près du comte, et faisait le cicerone en lui
indiquant quels étaient ses habitués. Il tâchait d’amener par ses lazzi
un sourire sur les lèvres d’un homme en qui son instinct de
Napolitain lui indiquait un riche protecteur à exploiter.
—Celui-ci, dit-il, est un pauvre compositeur, qui voudrait passer
de la romance à l’opéra et ne peut. Il se plaint des directeurs, des
marchands de musique, de tout le monde, excepté de lui-même, et,
certes, il n’a pas de plus cruel ennemi. Vous voyez quel teint fleuri,
quel contentement de lui, combien peu d’efforts dans ses traits, si
bien disposés pour la romance; celui qui l’accompagne, et qui a l’air
d’un marchand d’allumettes, est une des plus grandes célébrités
musicales, Gigelmi! le plus grand chef d’orchestre italien connu;
mais il est sourd, et finit malheureusement sa vie, privé de ce qui la
lui embellissait. Oh! voici notre grand Ottoboni, le plus naïf vieillard
que la terre ait porté, mais il est soupçonné d’être le plus enragé de
ceux qui veulent la régénération de l’Italie. Je me demande comment
l’on peut bannir un si aimable vieillard?
Ici Giardini regarda le comte, qui, se sentant sondé du côté
politique, se retrancha dans une immobilité tout italienne.
—Un homme obligé de faire la cuisine à tout le monde doit
s’interdire d’avoir une opinion politique, Excellence, dit le cuisinier en
continuant. Mais tout le monde, à l’aspect de ce brave homme, qui a
plus l’air d’un mouton que d’un lion, eût dit ce que je pense devant
l’ambassadeur d’Autriche lui-même. D’ailleurs nous sommes dans
un moment où la liberté n’est plus proscrite et va recommencer sa
tournée! Ces braves gens le croient du moins, dit-il en s’approchant
de l’oreille du comte, et pourquoi contrarierai-je leurs espérances!
car moi, je ne hais pas l’absolutisme, Excellence! Tout grand talent
est absolutiste! Hé! bien, quoique plein de génie, Ottoboni se donne
des peines inouïes pour l’instruction de l’Italie, il compose des petits
livres pour éclairer l’intelligence des enfants et des gens du peuple, il
les fait passer très-habilement en Italie, il prend tous les moyens de
refaire un moral à notre pauvre patrie, qui préfère la jouissance à la
liberté, peut-être avec raison!
Le comte gardait une attitude si impassible que le cuisinier ne put
rien découvrir de ses véritables opinions politiques.

You might also like