Download as ppt, pdf, or txt
Download as ppt, pdf, or txt
You are on page 1of 33

‫?

‪How to write a scientific Paper‬‬


‫ك يفية إعداد ا لورقه ا لعلمية‬

‫إعــــــداد‬
‫د‪.‬خالد النواصرة‬
‫رئيس قسم التدريب والتطوير االكاديمي‬
‫جامعة اليرموك ‪ -‬االردن‬
‫األجنده الرئيسية‬
‫القراءة والبحث وملء الفراغ‪.‬‬ ‫•‬
‫البحث عن المشكله‪.‬‬ ‫•‬
‫هيكلية الورقةـ العلمية‪.‬‬ ‫•‬
‫المشاركة العلمية والفرق البحثية‪.‬‬ ‫•‬
‫النشر العلمي والمجالت المحكمة‪.‬‬ ‫•‬
‫مراجع المحاضرة‬ ‫•‬
‫‪Filling the gap‬‬
‫ملء الفراغ العلمي‬

‫• معرفـــــة االنســـــان الحاليـــــة‬


‫والمكتشفـــه والتـــي قـــد تكون‬
‫اكتملــت أــو لــم تكتمــل و تحتاج‬
‫لتطوير‬
‫• المعرفة غير المكتشفة‬
‫• عليـــــك بالقراءـــــة المكثفـــــة‬
‫المعمقـــة لتكتـــب عم ــا انجزت‬
‫وتمالء الفراغ أـــــو تســـــاهم‬
‫بتطوير ما هو موجود‬
‫البحث عن المشكلة‬
‫توصيف آلية الحل‬

‫• التأكد من ان الفكرة تعمل بعد فحصها على بيانات او اثباتها رياضيا‪.‬‬

‫• مقارنة الفكرة المقترحة مع الحلول الموجودة‪.‬‬

‫• التفكير بآلية مبتكره ابداعيه للحل القادم‪.‬‬


‫‪WHAT IS A SCIENTIFIC‬‬
‫?‪PAPER‬‬
‫مالمقصود بالورقة العلمية ؟‬

‫هي مستند يثري المعرفة االنسانية بمعلومات جديدة واضحة ودقيقة ومباشرة‪.‬‬

‫‪6‬‬
‫‪Paper Structure‬‬
‫هيكلية الورقة العلمية‬

‫•‬ ‫بحث ا!سماء ا!!لمؤلفين‪ ،‬وا!ماكنعملهم! ‪Title, Name and affiliation‬‬


‫عنوا!نا!!ل ‪،‬‬
‫•‬ ‫ملخص ا!!لبحث(‪ 4‬جملا!ساسية) )‪Abstract (4 sentences‬‬
‫•‬ ‫مق!دمة ا!!لبحث(ح!ولص!!فحة وا!حدة) )‪Introduction (1 page‬‬
‫•‬ ‫ا!!لدرا!ساتا!!لسابق!ة (ح!ولص!!فحتان) )‪Related work (1-2 pages‬‬
‫•‬ ‫‪The problem (1 page), My idea (2 pages), The details (5‬‬
‫)‪pages‬‬
‫التفاصيل (‪5‬ص) توصيف المشكلة (‪1‬ص)‪ ،‬توص!يف الفكرة (‪2‬ص!)‬
‫مناقشة ا!!لنتائج مع! ا!ظه!ار ا!!لدليلعلىج!ودة ا!!لحل‪• Results and discussion‬‬
‫ا!!الستنتاجاتوا!!لعملا!!لمستقبلي)‪• Conclusions and future work (0.5 pages‬‬
‫ا!!لشكر وا!!لثناء ‪• Acknowledgement‬‬
‫ا!!لمرا!جع! ‪• References‬‬
‫‪Title‬‬
‫عنوان البحث‬

‫• يجب ان يكون عنوان البحث جيدا وذلك النه‪:‬‬


‫• يعبر عن محتوى الورقة العلمية‬
‫• يلفت انتباه واهتمام القاريء‬
‫• يعكس اسلوب الكتابة‬
‫• جميع الكلمات المكونه له هي كلمات مفتاحية تسهل على عملية‬
‫البحث للحواسيب‬
‫– يتبع العنوان اسماء المؤلفين بالترتيب حسب المساهمة‪ ،‬ثم‬
‫اماكن عملهم وعناوينها‪ ،‬ثم البريد االلكتر!وني وخصوصا‬
‫للمؤلف مراسل عملية النشر‪ ،‬واحيانا الهاتف والفاكس‬
‫مثال على عنوان بحث جيد‬

Solving the Problem of the K Parameter in KNN


Classifier Using Ensemble Learning Approach
Ahmad B. A. Hassanat1, Mohammad Ali Abbadi2, Ahmad Ali Alhasanat3
12
IT Department, 1 2 Mu'tah University, Mu'tah – Karak, Jordan, 61710,
3
Al-Hussein Bin Talal University, Maan, Jordan
Email: 1ahmad.hassanat@gmail.com, 2 abbadi@mutah.edu.jo,
‫‪The abstract‬‬
‫الملخص‬

‫• عادة ما يكتب أخرا‬


‫• يستخدم من قبل المحررين لتحديد المحكمين المناسبين‬
‫• يتكون من ‪ 4‬جمل اساسية وهي‪:‬‬
‫ذكر المشكلة بشكل ملخص‬ ‫–‬
‫ذكر الحل المقترح‬ ‫–‬
‫نتائج الحل المقترح‬ ‫–‬
‫تبعات الحل المقترح‬ ‫–‬
‫• معضم المجالت تحدد الملخص ب ‪ 150‬الى ‪ 400‬كلمة كحد اقصى‬
Abstract ‫مثاــلجـيد لــلملخص‬
This paper presents a new solution for choosing the K
parameter in the k-nearest neighbor (KNN) algorithm, the
solution depends on the idea of ensemble learning, in
which weak a KNN classifier is used each time with a
different K, starting from one to the square root of the size
of the training set. The results of the weak classifiers are
combined using weighted sum rule.
The proposed solution was tested and compared to other
solutions using a group of experiments on real world
problems. The experimental results show that the proposed
classifier outperforms the traditional KNN classifier that
uses different number of neighbors, is competitive to other
classifiers, and is a promising classifier with strong
potential for a wide range of applications.
‫‪Keywords‬‬
‫الكلمات المفتاحية‬

‫• الهدف منها هو دعم المعلومات المقدمة من العنوان‪.‬‬


‫• كلمات العنوان تضمن في فهارس قواعد البيانات تلقائيا‬
‫• تقدم هذه الكلمات مؤشرات اضافية لفهرسة قواعد البيانات‬
‫• لذلك يجب ان ال نستخدم نفس الكلمات الموجودة في العنوان‬
‫•عددها من ‪ 3‬الى ‪ 10‬كلمات حسب المجلة او المؤتمر‬

‫مثال على الكلمات المفتاحية‬


‫‪Keywords: AI, supervised learning, machine learning‬‬
‫‪1. introduction‬‬
‫المقدمة (حوال صفحة واحدة)‬

‫• اكتب وصف المشكلة مدار البحث‬


‫• اكتب كيف ستحلها‬
‫• وهذا كل شيء‬
‫مثال على مقدمة جيدة‬
1. Introduction
The nearest neighbor approach was first introduced by (Fix & Hodges, 1951)
and later studied by (Cover & Hart, 1967). This approach is one of the simplest
and oldest methods that used for pattern classification. It often yields efficient
performance, and in certain cases, its accuracy is higher than the state-of the-art
classifiers (Hamamoto, Uchimura, & Tomita, 1997) (Alpaydin, 1997).
There are two major problems inherited by the design of the KNN (Guo, Wang,
Bell, Bi, & Greer, 2003) and (Bhatia & Vandana, 2010) :
1.There is no output trained model to be used, the algorithm has to use all the
training examples on each test, therefore its time complexity is linear O(n).
2.Its classification performance depends on choosing the optimal number of
neighbors (k), which is different from data sample to another.

The purpose of this study is to solve the second problem, by removing the need
for using a specific k with the classifier. ….etc.
‫‪Related work‬‬
‫الدراسات السابقة‬

‫• خطأ شائع‪ :‬حتى اجعل عملي يبدو جيدا يجب ان اظهر ان اعمال االخرين سيئة‬

‫• اعطاء الفضل العمال االخرين ال يمحي افضلية عملك اذا كان جيدا‬
‫• اشكر واثني على االشخاص الذين ساعدوك‬
‫• كن كريما م!ع المنافسين لعملك من الدراسات التي سبقتك‪ :‬مثال‬
‫“ ‪In his inspiring paper [Foo98] Foogle shows.... We develop his‬‬
‫‪”...foundation in the following ways‬‬
‫• اعترف واظهر المشاكل التي ترافق الحل الذي تقترحه‪ ،‬مهما ك!ان الحل جيدا‬
‫فالبد من وجود ثغ!رات‪ ،‬بينه!ا للقاريء‬
‫‪2. Related work‬‬
‫الدراسات السابقة‬
‫ارجع الى احدث الدراسات في افضل المجالت والمؤتم!رات‬ ‫•‬
‫يمك!ن ان تعود بالزمن ك!ثيرا الى الوراء الظه!ار اول حل معروف للمشكلة‬ ‫•‬
‫عدم النسخ واللصق مباشرة م!ن االوراق االخرى‪ ،‬الن ذلك يعتبر غشا‪ ،‬ويسهل‬ ‫•‬
‫اكتشافه م!ن قبل برام!ج (‪ ) Plagiarism‬واذا تم ذلك يكون بين عالمتي تنصيص‬
‫”“ واالفضل اعادة صياغة الفكرة باسلوبك وفهمك الخاصين‪.‬‬
‫عن ك!ل دراسة ترجع اليها‪ ،‬اك!تب باختصار‪:‬‬ ‫•‬
‫الحل الذي تم اقتراحه‬ ‫–‬
‫الطرق والمنهجية المستخدمة‬ ‫–‬
‫البيانات المستخدمة‬ ‫–‬
‫نتائج الدراسة‬ ‫–‬
Related work, ‫مثاــلعلىاــلدراـساتاــلسابقة‬
There are many studies, which have attempted to solve the
first problem, depending on reducing the size of the
training (Hart, 1968), (Gates, 1972), (Alpaydin, 1997),
(Kubat & Jr, 2000) and (Wilson & Martinez, 2000).
Hart proposed a simple local search method called the
“Condensed Nearest Neighbour (CNN)” this method
attempts to minimize the number of stored examples
and stores only a subset of the training set to be used
for classification later. Their idea is based on removing
the similar redundant examples (Hart, 1968).
‫‪3. The proposed work‬‬
‫الحل المقترح (مساهمتك العلمية)‬
‫• عرف المشكلة واكتب عنها باسهاب‬
‫• وصف الحل المقترح باسهاب واستخدم جميع الوسائل الممكنه لتوضيحه‬
‫وهي‪:‬‬
‫(‪ ) Figures‬الصور اوالرسومات اوالمخططات التوضيحية‬ ‫–‬
‫(‪ ) Tables‬الجداول‬ ‫–‬
‫(‪ ) Algorithms‬الخوارزميات‬ ‫–‬
‫(‪ ) Examples‬االمثلة‬ ‫–‬
‫(‪ )Equations‬المعادالت الرياضية‬ ‫–‬

‫• وصف البيانات التي ستستخدمها‬


‫• اثناء الكتابة هنا ال تكف عن االستشهاد باعمال االخرين‬
Figures‫مثاــلعلى‬
‫اثناء الكتابة‬
‫اشر الى الرسم‬
:‫مثال‬
)See Figure 2(

‫كل رسم له رقم‬


‫متسلس ووصف تحته‬
Figure 2. Simple example showing the proposed classifier
Algorithms‫مثاــلعلىاــلخوارزميات‬
‫كل خوارزمية لها رقم‬
------------------------------------------------------------------------------------------------------------
‫متسلس ووصف فوقها‬
Algorithm 1: the proposed ensemble KNN classifier
‫ومدخالت ومخرجات‬
------------------------------------------------------------------------------------------------------------
Input: training data set TD, test example TE
Output: class’s index
•Array Distances[Size(TD)]
•index=0
•For each example as E in TD {
• Distances[index]=distanc(E,TE)//any distance function
• index=index+1
•}
•K=sqrt(Size(TD))
•Array minClasses[k]
•minClasses = classes (min k Distances) //ordered by distance
•Array SW[number of classes in TD]// weight sum for each
class
•Initililze SW// fill with zeros
•for i=1 to k , i=i+2
• for j=1 to i , j=j+1
• SW[minClasses[j]]=classes[minClasses[j]]+1/Log(1+j,2)
•return argmax(classes)
------------------------------------------------------------------------------------------------------------
‫‪Equations‬‬
‫المعادالت الرياضية‬

‫• يمكنك ان تستخدم اي برنامج لتحرير المعادالت الرياضية ومن اشهرها محرر‬


‫ميكروسفت للمعادالت الرياضية والموجود ضمن برنامج تحرير النصوص الخاص‬
‫بشركة ميكروسفت‪ ،‬وذلك من خالل االمر ‪)insert, equation( :‬‬

‫• كل معادلة يجب ان يكون لها رقم متسلس وكذلك الرسومات والجداول‬


‫• المعادلة رقمه الى اليمين‪ ،‬والجدول فوق مع وصف الجدول والرسومات تحت الرسم‬
‫مع وصف الرسم مثال على المعادالت‪:‬‬

‫)‪(1‬‬
‫توصيف البيانات المستخدمة‬

‫• احيانا يكون الموقع بعد وصف الحل المقترح (الفرع الثالث) او في بداية‬
‫فرع مناقشة النتائج (الرابع)‬

‫• هذه البيانات يمكن ان تكون اوجدت بواسطتك او بيانات قياسية اخذت من‬
‫الدراسات السابقة لتسهل مقارنة الحل المقترح مع الحلول االخرى (غالبا)‬
‫مثال على توصيف البيانات المستخدمة‬
we chose 28 different data sets represent real world
classification problems, taken from the UCI Machine Learning
Repository (Bache & Lichman, 2014). Table 1 depicts the data
sets used. ‫كل جدول له رقم‬
‫متسلس ووصف فوقه‬
Table 1. Description of the data sets used.

#example #feature Ma
Name s s #classes data type Min x
mostly
Heart 270 25 2 integer 0 564
Balance 625 4 3 pos integer 1 5
Cancer 683 9 2 pos integer 0 9
German 1000 24 2 pos integer 0 184
Liver 345 6 2 pos integer 0 297
101
Vehicle 846 18 4 pos integer 0 8
‫‪Results and discussion .4‬‬
‫النتائج ومناقشتها‬

‫في المقدمة ادعيت انك ستقدم حال جيدا للمشكلة‬ ‫•‬


‫جسم الورقة البحثية يجب ان يقدم دليال علميا لدعم ادعائك‬ ‫•‬
‫تأكد من كل ادعاء في المقدمة وحدد دليله العلمي‬ ‫•‬
‫الدليل يمكن ان يكون‪ :‬تحليل ومقارنة‪ ،‬فرضيات مثبتة‪ ،‬قياسات‬ ‫•‬
‫معينة‪ ،‬حاالت دراسية‪ ،‬وغالبا تجارب علمية‬
‫‪Results and discussion .4‬‬
‫النتائج ومناقشتها‬

‫وصف بروتوكول التجربة‪ ،‬واالفتراضات‪ ،‬والبيئة‪ ،‬والبيانات‪ ،‬وغيرها‬ ‫•‬


‫وهذا أمر مهم لمبدأ اعادة استنساخ التجربة (‪) Reproducibility‬‬
‫ناقش النتائج وبرر لماذا هي جيدة او سيئة او متوسطة الخ‬ ‫•‬
‫مقارنة النتائج مع اآلخرين إذا وفقط إذا استخدموا نفس البيانات في نفس‬ ‫•‬
‫الظروف‪ ،‬غير ذلك ناقش نتائجهم وبين سبب االختالف‬
‫أخالقيات البحث العلمي‪ ،‬ال تلعب هنا ابدا‪ ،‬اي ال تغش النتائج لتظهر ان‬ ‫•‬
‫عملك افضل‪ ،‬فمن السهل معرفة ذلك من قبل المحررين والمحكمين‬
‫والقراء النهم مختصون‬
4. Results and discussion
‫مثال على فرع النتائج ومناقشتها‬
Table 2. The results of the proposed classifier compared to other classifiers,
accuracies are the average of 10 runs.
√n - 30- 60- IIN
Dataset 1-NN 3-NN 5-NN 7-NN 9-NN NN NN 45-NN NN C Proposed
Australia
n 0.80 0.86 0.87 0.86 0.86 0.86 0.85 0.86 0.86 0.87 0.87
Balance 0.80 0.80 0.83 0.85 0.86 0.88 0.88 0.88 0.88 0.88 0.86
Banknote 1.00 1.00 1.00 1.00 1.00 0.98 0.98 0.97 0.96 1.00 1.00
BCW 0.97 0.97 0.96 0.96 0.96 0.95 0.96 0.96 0.95 0.95 0.96
Cancer 0.96 0.97 0.97 0.96 0.97 0.96 0.96 0.96 0.95 0.95 0.96
Diabetes 0.69 0.72 0.73 0.74 0.75 0.76 0.76 0.76 0.75 0.74 0.74
As can be seen from the results, there is no optimal k, as there is no specific number of
neighbors that is suitable for all datasets to be used with nearest neighbor rule. Each
data set favor a specific number (k) of neighbors, this note justifies the proposed method,
which attempts to use the power of each classifier, and employs it to enhance the overall
performance of the proposed method.
‫‪5. Conclusions‬‬
‫االستنتاجات‬
‫االستنتاجات يجب ان‪:‬‬

‫• تؤك!د على أهمية الورقة البحثية‬


‫• إعطاء الورقة الشعور باالكتمال‬
‫• ترك االنطباع النهائي على القارئ‬
‫مثال جيد على االستنتاجات‬

This work proposes a new classifier based on the KNN classifier, which
solves the problem of choosing the number of neighbors that participate
in the final decision using the majority rule of the nearest neighbor
approach. The proposed method makes use of the ensemble learning
approach, where the traditional KNN is used with different number of
neighbors each time.
The experimental results using variety of data sets of real world
problems have shown superiority of the proposed method over the
tradition KNN using variety of k neighbors. In addition, the proposed
method was found completive to other classifiers such as the IINC
classifier. Moreover, we have shown that the speed of the proposed
method (linear time) was found to be better than that of the IINC which
is logarithmic linear time.
Future work
‫العمل المستقبلي‬

: ‫ وذلك باستخدام‬،‫• أذكر بإيجاز ك!يفية تحسين الورقة اكثر‬


‫طرق ومنهجيات مختلفة‬ –
‫مزيدا من البيانات لتقديم مزيدا من الدعم الدعاءاتك‬ –
‫جوانب ناقصة‬ –
‫افتراضات أقل‬ –
.‫إلخ‬ –

‫مثال جيد على العمل المستقبلي‬

There is room for enhancing the complexity time of the proposed method
using KD-trees (Bentley, 1990) or other hashing technique (Indyk &
Motwani, 1998) and (Andoni & Indyk, 2008), this effort is left to be done in
the future
‫‪References‬‬
‫المرـاجع‬

‫• نحتاج المراجع ل ‪:‬‬


‫– لتمييز أفكارك عن افكار شخص آخر‪.‬‬
‫– لالستشهاد بوجهات نظر مختلفة‪.‬‬
‫– للتحقق من صحة ما تكتبه‪ ،‬وذلك بالرجوع إلى األدلة الموثقة‪ .‬األعمال‬
‫المنشورة على سبيل المثال يمكن أن تستخدم لدعم حجتك وتضفي‬
‫مصداقية على كتاباتك‪.‬‬
‫– إلعالم القراء عن نطاق وعمق قراءتك‪.‬‬
‫( اــلمراـجعـ ‪)References‬‬

‫عادة ما نستشهد ب‪:‬‬ ‫•‬


‫كتاب (‪ :)Book‬المؤلفون‪ ،‬عنوان الكتاب‪ ،‬الناشر‪ ،‬تاريخ النشر‪،‬‬ ‫•‬
‫وأرقام الصفحات‬
‫مجلة (‪ :)Journal‬المؤلفون‪ ، ‬عنوان المقال‪ ،‬عنوان المجلة‪ ،‬تاريخ‬ ‫•‬
‫النشر‪ ،‬المجلد واالصدار ورقم الصفحة‬
‫مؤتمر (‪ : )Conference‬المؤلفون‪ ، ‬عنوان المقال‪ ،‬اسم المؤتمر‪،‬‬ ‫•‬
‫المدينة‪ ،‬تاريخ النشر‪ ،‬ورقم الصفحة‬
‫صحيفة (‪ :)Newspaper‬المؤلفون‪ ،‬عنوان المقال‪ ،‬اسم الصحيفة‪،‬‬ ‫•‬
‫عنوان القسم والصفحة‪ ‬وتاريخ النشر‪.‬‬
‫موقع على شبكة اإلنترنت (‪ :)Website‬المؤلفون‪ ،‬عنوان المقال‪،‬‬ ‫•‬
‫وكذلك العنوان االلكتروني ‪ ،))URL‬والتاريخ الذي! تم فيه الوصول‬
‫إلى الموقع‪.‬‬
‫مقابلة (‪ :)Interview‬اسم المقابل‪ ،‬وصف المقابلة وتاريخ المقابلة‪.‬‬ ‫•‬
32
33

You might also like