abdullahmubeen10
commited on
Commit
•
62bdbfd
1
Parent(s):
afd3bc4
Upload 5 files
Browse files- .streamlit/config.toml +3 -0
- Demo.py +204 -0
- Dockerfile +70 -0
- pages/Workflow & Model Overview.py +199 -0
- requirements.txt +6 -0
.streamlit/config.toml
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
[theme]
|
2 |
+
base="light"
|
3 |
+
primaryColor="#29B4E8"
|
Demo.py
ADDED
@@ -0,0 +1,204 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import streamlit as st
|
2 |
+
import sparknlp
|
3 |
+
import os
|
4 |
+
import pandas as pd
|
5 |
+
|
6 |
+
from sparknlp.base import *
|
7 |
+
from sparknlp.annotator import *
|
8 |
+
from pyspark.ml import Pipeline
|
9 |
+
from sparknlp.pretrained import PretrainedPipeline
|
10 |
+
from annotated_text import annotated_text
|
11 |
+
|
12 |
+
# Page configuration
|
13 |
+
st.set_page_config(
|
14 |
+
layout="wide",
|
15 |
+
initial_sidebar_state="auto"
|
16 |
+
)
|
17 |
+
|
18 |
+
# CSS for styling
|
19 |
+
st.markdown("""
|
20 |
+
<style>
|
21 |
+
.main-title {
|
22 |
+
font-size: 36px;
|
23 |
+
color: #4A90E2;
|
24 |
+
font-weight: bold;
|
25 |
+
text-align: center;
|
26 |
+
}
|
27 |
+
.section {
|
28 |
+
background-color: #f9f9f9;
|
29 |
+
padding: 10px;
|
30 |
+
border-radius: 10px;
|
31 |
+
margin-top: 10px;
|
32 |
+
}
|
33 |
+
.section p, .section ul {
|
34 |
+
color: #666666;
|
35 |
+
}
|
36 |
+
</style>
|
37 |
+
""", unsafe_allow_html=True)
|
38 |
+
|
39 |
+
@st.cache_resource
|
40 |
+
def init_spark():
|
41 |
+
return sparknlp.start()
|
42 |
+
|
43 |
+
@st.cache_resource
|
44 |
+
def create_pipeline(model):
|
45 |
+
documentAssembler = DocumentAssembler() \
|
46 |
+
.setInputCol("text") \
|
47 |
+
.setOutputCol("document")
|
48 |
+
|
49 |
+
sentenceDetector = SentenceDetectorDLModel.pretrained("sentence_detector_dl", "xx") \
|
50 |
+
.setInputCols(["document"]) \
|
51 |
+
.setOutputCol("sentence")
|
52 |
+
|
53 |
+
tokenizer = Tokenizer() \
|
54 |
+
.setInputCols(["sentence"]) \
|
55 |
+
.setOutputCol("token")
|
56 |
+
|
57 |
+
tokenClassifier = BertForTokenClassification.pretrained("bert_ner_bert_base_arabic_camelbert_mix_ner", "ar") \
|
58 |
+
.setInputCols(["sentence", "token"]) \
|
59 |
+
.setOutputCol("ner")
|
60 |
+
|
61 |
+
ner_converter = NerConverter()\
|
62 |
+
.setInputCols(["document", "token", "ner"])\
|
63 |
+
.setOutputCol("ner_chunk")
|
64 |
+
|
65 |
+
pipeline = Pipeline(stages=[documentAssembler, sentenceDetector, tokenizer, tokenClassifier])
|
66 |
+
return pipeline
|
67 |
+
|
68 |
+
def fit_data(pipeline, data):
|
69 |
+
empty_df = spark.createDataFrame([['']]).toDF('text')
|
70 |
+
pipeline_model = pipeline.fit(empty_df)
|
71 |
+
model = LightPipeline(pipeline_model)
|
72 |
+
result = model.fullAnnotate(data)
|
73 |
+
return result
|
74 |
+
|
75 |
+
def annotate(data):
|
76 |
+
document, chunks, labels = data["Document"], data["NER Chunk"], data["NER Label"]
|
77 |
+
annotated_words = []
|
78 |
+
for chunk, label in zip(chunks, labels):
|
79 |
+
parts = document.split(chunk, 1)
|
80 |
+
if parts[0]:
|
81 |
+
annotated_words.append(parts[0])
|
82 |
+
annotated_words.append((chunk, label))
|
83 |
+
document = parts[1]
|
84 |
+
if document:
|
85 |
+
annotated_words.append(document)
|
86 |
+
annotated_text(*annotated_words)
|
87 |
+
|
88 |
+
# Set up the page layout
|
89 |
+
st.markdown('<div class="main-title">Recognize entities in Arabic text</div>', unsafe_allow_html=True)
|
90 |
+
st.markdown('<div class="section"><p>Recognize Persons, Locations an Organization entities using an out of the box pretrained Deep Learning model.</p></div>', unsafe_allow_html=True)
|
91 |
+
|
92 |
+
# Sidebar content
|
93 |
+
model = st.sidebar.selectbox(
|
94 |
+
"Choose the pretrained model",
|
95 |
+
["bert_ner_bert_base_arabic_camelbert_mix_ner"],
|
96 |
+
help="For more info about the models visit: https://sparknlp.org/models"
|
97 |
+
)
|
98 |
+
|
99 |
+
# Reference notebook link in sidebar
|
100 |
+
link = """
|
101 |
+
<a href="https://colab.research.google.com/github/JohnSnowLabs/spark-nlp-workshop/blob/master/tutorials/streamlit_notebooks/public/NER_AR.ipynb">
|
102 |
+
<img src="https://colab.research.google.com/assets/colab-badge.svg" style="zoom: 1.3" alt="Open In Colab"/>
|
103 |
+
</a>
|
104 |
+
"""
|
105 |
+
st.sidebar.markdown('Reference notebook:')
|
106 |
+
st.sidebar.markdown(link, unsafe_allow_html=True)
|
107 |
+
|
108 |
+
# Load examples
|
109 |
+
examples = [
|
110 |
+
"""
|
111 |
+
كانت مدينة بغداد، العاصمة الحالية للعراق، مركزاً ثقافياً وحضارياً عظيماً في العصور الوسطى. تأسست في القرن الثامن الميلادي على يد الخليفة العباسي أبو جعفر المنصور.
|
112 |
+
كانت بغداد مدينة المعرفة والعلم، حيث توافد إليها العلماء والفلاسفة من كل أنحاء العالم الإسلامي للدراسة في بيت الحكمة. كانت مكتباتها تحتوي على آلاف المخطوطات النادرة،
|
113 |
+
وكانت تشتهر بمدارسها العلمية والطبية والفلكية. في عام 1258، سقطت بغداد في يد المغول بقيادة هولاكو خان، مما أدى إلى تدمير جزء كبير من المدينة وخسارة العديد من النفائس.
|
114 |
+
""",
|
115 |
+
|
116 |
+
"""
|
117 |
+
يُعتبر نهر النيل أطول نهر في العالم، حيث يمتد من وسط إفريقيا إلى شمالها ليصب في البحر الأبيض المتوسط. يمر النيل عبر العديد من الدول الأفريقية مثل أوغندا، إثيوبيا، السودان، ومصر.
|
118 |
+
يعتبر النيل شريان الحياة في مصر منذ آلاف السنين، حيث يعتمد المصريون على مياهه في الزراعة والصناعة والاستخدامات اليومية. بالإضافة إلى ذلك، لعب النيل دوراً كبيراً في نشوء
|
119 |
+
الحضارات القديمة في مصر، مثل الحضارة الفرعونية التي ازدهرت في عهد الملك رمسيس الثاني والملكة نفرتيتي. يعد سد أسوان العالي الذي بُني في الستينيات من القرن العشرين من أهم المشاريع
|
120 |
+
الهندسية على النيل.
|
121 |
+
""",
|
122 |
+
|
123 |
+
"""
|
124 |
+
يُعد المسجد الحرام في مكة المكرمة من أقدس الأماكن في الإسلام، حيث يأتي المسلمون من جميع أنحاء العالم لأداء فريضة الحج والعمرة. يحيط بالمسجد الحرام الكعبة المشرفة، والتي تعتبر
|
125 |
+
القبلة التي يتوجه نحوها المسلمون في صلاتهم. يقع المسجد الحرام في وسط مكة، وتحيط به العديد من الفنادق والأسواق التي تخدم الحجاج والزوار. تقوم الحكومة السعودية بتوسيع وتطوير
|
126 |
+
المسجد الحرام بشكل مستمر لاستيعاب الأعداد المتزايدة من الزوار. في عام 2019، وصل عدد الحجاج إلى أكثر من مليوني حاج من مختلف الدول.
|
127 |
+
""",
|
128 |
+
|
129 |
+
"""
|
130 |
+
تُعد دمشق، عاصمة سوريا، واحدة من أقدم المدن المأهولة في العالم. يعود تاريخها إلى آلاف السنين قبل الميلاد، وقد شهدت تعاقب العديد من الحضارات العظيمة مثل الآرامية والرومانية والإسلامية.
|
131 |
+
تُعتبر دمشق مركزاً ثقافياً وفنياً مهماً في الشرق الأوسط، حيث تضم العديد من المعالم التاريخية مثل المسجد الأموي وسوق الحميدية. كما تشتهر دمشق بصناعاتها التقليدية مثل صناعة الحلويات
|
132 |
+
الدمشقية والنسيج. خلال فترة الحروب الصليبية، كانت دمشق مركزاً للمقاومة بقيادة صلاح الدين الأيوبي.
|
133 |
+
""",
|
134 |
+
|
135 |
+
"""
|
136 |
+
في عام 1971، تأسست دولة الإمارات العربية المتحدة بقيادة الشيخ زايد بن سلطان آل نهيان. تتألف الإمارات من سبع إمارات هي أبوظبي، دبي، الشارقة، عجمان، أم القيوين، رأس الخيمة، والفجيرة.
|
137 |
+
حققت الإمارات تطوراً اقتصادياً كبيراً بفضل ثرواتها النفطية، بالإضافة إلى تنويع الاقتصاد من خلال الاستثمار في قطاعات السياحة والتجارة والطيران. تُعد مدينة دبي مركزاً عالمياً للأعمال
|
138 |
+
والسياحة، وتشتهر بمعالمها الرائعة مثل برج خليفة، أطول برج في العالم، وبرج العرب. في عام 2020، استضافت دبي معرض إكسبو 2020 الذي جذب ملايين الزوار من جميع أنحاء العالم.
|
139 |
+
""",
|
140 |
+
|
141 |
+
"""
|
142 |
+
يُعتبر الفيلسوف ابن سينا، المعروف في الغرب باسم "Avicenna"، واحداً من أعظم العلماء في التاريخ الإسلامي. وُلِد في بخارى، التي تقع في أوزبكستان الحالية، عام 980 ميلادية.
|
143 |
+
ألَّف ابن سينا أكثر من 450 كتاباً في مجالات متعددة، من بينها الطب والفلسفة والعلوم الطبيعية. يُعتبر كتابه "القانون في الطب" مرجعاً مهماً في تاريخ الطب، وقد استخدم في الجامعات الأوروبية
|
144 |
+
لعدة قرون. عاش ابن سينا في فترة الدولة السامانية، وقضى معظم حياته متنقلاً بين المدن الكبرى في العالم الإسلامي، مثل الري وأصفهان.
|
145 |
+
""",
|
146 |
+
|
147 |
+
"""
|
148 |
+
تُعد شركة أرامكو السعودية واحدة من أكبر شركات النفط في العالم. تأسست الشركة في الثلاثينيات من القرن العشرين، وأصبحت اليوم عملاقاً في صناعة النفط والطاقة. تتولى أرامكو عمليات التنقيب
|
149 |
+
والإنتاج والتكرير والتوزيع، ولديها شبكة واسعة من المنشآت والمشاريع في المملكة العربية السعودية وحول العالم. في عام 2019، قامت الشركة بطرح عام أولي (IPO) وجمعت مليارات الدولارات
|
150 |
+
من المستثمرين العالميين. تعتبر أرامكو لاعباً رئيسياً في سوق الطاقة العالمي، وتساهم بشكل كبير في اقتصاد المملكة.
|
151 |
+
""",
|
152 |
+
|
153 |
+
"""
|
154 |
+
في عام 2022، أعلنت منظمة الصحة العالمية (WHO) عن اكتشاف فيروس جديد يسبب مرضاً تنفسياً حاداً، أُطلق عليه اسم "كوفيد-19". انتشر الفيروس بسرعة في جميع أنحاء العالم، مما أدى إلى
|
155 |
+
إعلان جائحة عالمية. عملت الدول على تطوير لقاحات للحد من انتشار الفيروس، وكان من أبرز هذه اللقاحات لقاح "فايزر-بيونتيك" ولقاح "موديرنا". أثرت الجائحة على جميع جوانب الحياة،
|
156 |
+
مما دفع الحكومات إلى فرض إجراءات احترازية مثل الإغلاق والتباعد الاجتماعي.
|
157 |
+
""",
|
158 |
+
|
159 |
+
"""
|
160 |
+
تأسست منظمة الأمم المتحدة (UN) في عام 1945 بعد نهاية الحرب العالمية الثانية، بهدف الحفاظ على السلام والأمن الدوليين وتعزيز التعاون الدولي. تضم المنظمة اليوم 193 دولة عضواً،
|
161 |
+
وتعمل من خلال وكالاتها المتعددة مثل اليونسكو (UNESCO) ومنظمة الصحة العالمية (WHO) وبرنامج الأمم المتحدة الإنمائي (UNDP). يقع مقر الأمم المتحدة الرئيسي في نيويورك، وتقوم المنظمة
|
162 |
+
بعقد مؤتمرات وقمم دولية لمناقشة القضايا العالمية مثل تغير المناخ وحقوق الإنسان والتنمية المستدامة.
|
163 |
+
""",
|
164 |
+
|
165 |
+
"""
|
166 |
+
يُعد الكاتب المصري نجيب محفوظ واحداً من أشهر الأدباء في العالم العربي. وُلِد في القاهرة عام 1911، وحصل على جائزة نوبل للأدب في عام 1988. كتب محفوظ العديد من الروايات الشهيرة
|
167 |
+
التي تناولت قضايا المجتمع المصري والتحولات التي شهدها خلال القرن العشرين. من أبرز أعماله "الثلاثية" التي تضم روايات "بين القصرين"، "قصر الشوق"، و"السكرية". تُرجمَت أعماله
|
168 |
+
إلى العديد من اللغات، وأثرت بشكل كبير على الأدب العربي والعالمي.
|
169 |
+
"""
|
170 |
+
]
|
171 |
+
|
172 |
+
selected_text = st.selectbox("Select an example", examples)
|
173 |
+
custom_input = st.text_input("Try it with your own Sentence!")
|
174 |
+
|
175 |
+
text_to_analyze = custom_input if custom_input else selected_text
|
176 |
+
|
177 |
+
st.subheader('Full example text')
|
178 |
+
HTML_WRAPPER = """<div class="scroll entities" style="overflow-x: auto; border: 1px solid #e6e9ef; border-radius: 0.25rem; padding: 1rem; margin-bottom: 2.5rem; white-space:pre-wrap">{}</div>"""
|
179 |
+
st.markdown(HTML_WRAPPER.format(text_to_analyze), unsafe_allow_html=True)
|
180 |
+
|
181 |
+
# Initialize Spark and create pipeline
|
182 |
+
spark = init_spark()
|
183 |
+
pipeline = create_pipeline(model)
|
184 |
+
output = fit_data(pipeline, text_to_analyze)
|
185 |
+
|
186 |
+
# Display matched sentence
|
187 |
+
st.subheader("Processed output:")
|
188 |
+
|
189 |
+
results = {
|
190 |
+
'Document': output[0]['document'][0].result,
|
191 |
+
'NER Chunk': [n.result for n in output[0]['ner_chunk']],
|
192 |
+
"NER Label": [n.metadata['entity'] for n in output[0]['ner_chunk']]
|
193 |
+
}
|
194 |
+
|
195 |
+
annotate(results)
|
196 |
+
|
197 |
+
with st.expander("View DataFrame"):
|
198 |
+
df = pd.DataFrame({'NER Chunk': results['NER Chunk'], 'NER Label': results['NER Label']})
|
199 |
+
df.index += 1
|
200 |
+
st.dataframe(df)
|
201 |
+
|
202 |
+
|
203 |
+
|
204 |
+
|
Dockerfile
ADDED
@@ -0,0 +1,70 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Download base image ubuntu 18.04
|
2 |
+
FROM ubuntu:18.04
|
3 |
+
|
4 |
+
# Set environment variables
|
5 |
+
ENV NB_USER jovyan
|
6 |
+
ENV NB_UID 1000
|
7 |
+
ENV HOME /home/${NB_USER}
|
8 |
+
|
9 |
+
# Install required packages
|
10 |
+
RUN apt-get update && apt-get install -y \
|
11 |
+
tar \
|
12 |
+
wget \
|
13 |
+
bash \
|
14 |
+
rsync \
|
15 |
+
gcc \
|
16 |
+
libfreetype6-dev \
|
17 |
+
libhdf5-serial-dev \
|
18 |
+
libpng-dev \
|
19 |
+
libzmq3-dev \
|
20 |
+
python3 \
|
21 |
+
python3-dev \
|
22 |
+
python3-pip \
|
23 |
+
unzip \
|
24 |
+
pkg-config \
|
25 |
+
software-properties-common \
|
26 |
+
graphviz \
|
27 |
+
openjdk-8-jdk \
|
28 |
+
ant \
|
29 |
+
ca-certificates-java \
|
30 |
+
&& apt-get clean \
|
31 |
+
&& update-ca-certificates -f;
|
32 |
+
|
33 |
+
# Install Python 3.8 and pip
|
34 |
+
RUN add-apt-repository ppa:deadsnakes/ppa \
|
35 |
+
&& apt-get update \
|
36 |
+
&& apt-get install -y python3.8 python3-pip \
|
37 |
+
&& apt-get clean;
|
38 |
+
|
39 |
+
# Set up JAVA_HOME
|
40 |
+
ENV JAVA_HOME /usr/lib/jvm/java-8-openjdk-amd64/
|
41 |
+
RUN mkdir -p ${HOME} \
|
42 |
+
&& echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/" >> ${HOME}/.bashrc \
|
43 |
+
&& chown -R ${NB_UID}:${NB_UID} ${HOME}
|
44 |
+
|
45 |
+
# Create a new user named "jovyan" with user ID 1000
|
46 |
+
RUN useradd -m -u ${NB_UID} ${NB_USER}
|
47 |
+
|
48 |
+
# Switch to the "jovyan" user
|
49 |
+
USER ${NB_USER}
|
50 |
+
|
51 |
+
# Set home and path variables for the user
|
52 |
+
ENV HOME=/home/${NB_USER} \
|
53 |
+
PATH=/home/${NB_USER}/.local/bin:$PATH
|
54 |
+
|
55 |
+
# Set the working directory to the user's home directory
|
56 |
+
WORKDIR ${HOME}
|
57 |
+
|
58 |
+
# Upgrade pip and install Python dependencies
|
59 |
+
RUN python3.8 -m pip install --upgrade pip
|
60 |
+
COPY requirements.txt /tmp/requirements.txt
|
61 |
+
RUN python3.8 -m pip install -r /tmp/requirements.txt
|
62 |
+
|
63 |
+
# Copy the application code into the container at /home/jovyan
|
64 |
+
COPY --chown=${NB_USER}:${NB_USER} . ${HOME}
|
65 |
+
|
66 |
+
# Expose port for Streamlit
|
67 |
+
EXPOSE 7860
|
68 |
+
|
69 |
+
# Define the entry point for the container
|
70 |
+
ENTRYPOINT ["streamlit", "run", "Demo.py", "--server.port=7860", "--server.address=0.0.0.0"]
|
pages/Workflow & Model Overview.py
ADDED
@@ -0,0 +1,199 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import streamlit as st
|
2 |
+
import pandas as pd
|
3 |
+
|
4 |
+
# Custom CSS for better styling
|
5 |
+
st.markdown("""
|
6 |
+
<style>
|
7 |
+
.main-title {
|
8 |
+
font-size: 36px;
|
9 |
+
color: #4A90E2;
|
10 |
+
font-weight: bold;
|
11 |
+
text-align: center;
|
12 |
+
}
|
13 |
+
.sub-title {
|
14 |
+
font-size: 24px;
|
15 |
+
color: #4A90E2;
|
16 |
+
margin-top: 20px;
|
17 |
+
}
|
18 |
+
.section {
|
19 |
+
background-color: #f9f9f9;
|
20 |
+
padding: 15px;
|
21 |
+
border-radius: 10px;
|
22 |
+
margin-top: 20px;
|
23 |
+
}
|
24 |
+
.section h2 {
|
25 |
+
font-size: 22px;
|
26 |
+
color: #4A90E2;
|
27 |
+
}
|
28 |
+
.section p, .section ul {
|
29 |
+
color: #666666;
|
30 |
+
}
|
31 |
+
.link {
|
32 |
+
color: #4A90E2;
|
33 |
+
text-decoration: none;
|
34 |
+
}
|
35 |
+
</style>
|
36 |
+
""", unsafe_allow_html=True)
|
37 |
+
|
38 |
+
# Main Title
|
39 |
+
st.markdown('<div class="main-title">Arabic Named Entity Recognition - BERT-based Model</div>', unsafe_allow_html=True)
|
40 |
+
|
41 |
+
# Introduction
|
42 |
+
st.markdown("""
|
43 |
+
<div class="section">
|
44 |
+
<p>Named Entity Recognition (NER) models identify and categorize important entities in a text. This page details a BERT-based NER model for Arabic texts, including Modern Standard Arabic (MSA), Dialectal Arabic (DA), and Classical Arabic (CA). The model is pretrained and available on Hugging Face, then imported into Spark NLP.</p>
|
45 |
+
</div>
|
46 |
+
""", unsafe_allow_html=True)
|
47 |
+
|
48 |
+
# Model Description
|
49 |
+
st.markdown('<div class="sub-title">Description</div>', unsafe_allow_html=True)
|
50 |
+
st.markdown("""
|
51 |
+
<div class="section">
|
52 |
+
<p>The <code>bert_ner_bert_base_arabic_camelbert_mix_ner</code> model is pretrained for Arabic named entity recognition, originally trained by CAMeL-Lab. It can identify the following types of entities:</p>
|
53 |
+
<ul>
|
54 |
+
<li>ORG (Organization)</li>
|
55 |
+
<li>LOC (Location)</li>
|
56 |
+
<li>PERS (Person)</li>
|
57 |
+
<li>MISC (Miscellaneous)</li>
|
58 |
+
</ul>
|
59 |
+
</div>
|
60 |
+
""", unsafe_allow_html=True)
|
61 |
+
|
62 |
+
# Setup Instructions
|
63 |
+
st.markdown('<div class="sub-title">Setup</div>', unsafe_allow_html=True)
|
64 |
+
st.markdown('<p>To use the model, you need Spark NLP installed. You can install it using pip:</p>', unsafe_allow_html=True)
|
65 |
+
st.code("""
|
66 |
+
pip install spark-nlp
|
67 |
+
pip install pyspark
|
68 |
+
""", language="bash")
|
69 |
+
|
70 |
+
st.markdown("<p>Then, import Spark NLP and start a Spark session:</p>", unsafe_allow_html=True)
|
71 |
+
st.code("""
|
72 |
+
import sparknlp
|
73 |
+
|
74 |
+
# Start Spark Session
|
75 |
+
spark = sparknlp.start()
|
76 |
+
""", language='python')
|
77 |
+
|
78 |
+
# Example Usage
|
79 |
+
st.markdown('<div class="sub-title">Example Usage with Arabic NER Model</div>', unsafe_allow_html=True)
|
80 |
+
st.markdown("""
|
81 |
+
<div class="section">
|
82 |
+
<p>Below is an example of how to set up and use the <code>bert_ner_bert_base_arabic_camelbert_mix_ner</code> model for named entity recognition in Arabic:</p>
|
83 |
+
</div>
|
84 |
+
""", unsafe_allow_html=True)
|
85 |
+
st.code('''
|
86 |
+
from sparknlp.base import *
|
87 |
+
from sparknlp.annotator import *
|
88 |
+
from pyspark.ml import Pipeline
|
89 |
+
from pyspark.sql.functions import col, expr, round, concat, lit, explode
|
90 |
+
|
91 |
+
# Define the components of the pipeline
|
92 |
+
documentAssembler = DocumentAssembler() \\
|
93 |
+
.setInputCol("text") \\
|
94 |
+
.setOutputCol("document")
|
95 |
+
|
96 |
+
sentenceDetector = SentenceDetectorDLModel.pretrained("sentence_detector_dl", "xx") \\
|
97 |
+
.setInputCols(["document"]) \\
|
98 |
+
.setOutputCol("sentence")
|
99 |
+
|
100 |
+
tokenizer = Tokenizer() \\
|
101 |
+
.setInputCols(["sentence"]) \\
|
102 |
+
.setOutputCol("token")
|
103 |
+
|
104 |
+
tokenClassifier = BertForTokenClassification.pretrained("bert_ner_bert_base_arabic_camelbert_mix_ner", "ar") \\
|
105 |
+
.setInputCols(["sentence", "token"]) \\
|
106 |
+
.setOutputCol("ner")
|
107 |
+
|
108 |
+
ner_converter = NerConverter()\\
|
109 |
+
.setInputCols(["document", "token", "ner"])\\
|
110 |
+
.setOutputCol("ner_chunk")
|
111 |
+
|
112 |
+
# Create the pipeline
|
113 |
+
pipeline = Pipeline(stages=[documentAssembler, sentenceDetector, tokenizer, tokenClassifier, ner_converter])
|
114 |
+
|
115 |
+
# Create sample data
|
116 |
+
example = """
|
117 |
+
كانت مدينة بغداد، العاصمة الحالية للعراق، مركزاً ثقافياً وحضارياً عظيماً في العصور الوسطى. تأسست في القرن الثامن الميلادي على يد الخليفة العباسي أبو جعفر المنصور.
|
118 |
+
كانت بغداد مدينة المعرفة والعلم، حيث توافد إليها العلماء والفلاسفة من كل أنحاء العالم الإسلامي للدراسة في بيت الحكمة. كانت مكتباتها تحتوي على آلاف المخطوطات النادرة،
|
119 |
+
وكانت تشتهر بمدارسها العلمية والطبية والفلكية. في عام 1258، سقطت بغداد في يد المغول بقيادة هولاكو خان، مما أدى إلى تدمير جزء كبير من المدينة وخسارة العديد من النفائس.
|
120 |
+
"""
|
121 |
+
data = spark.createDataFrame([[example]]).toDF("text")
|
122 |
+
|
123 |
+
# Fit and transform data with the pipeline
|
124 |
+
result = pipeline.fit(data).transform(data)
|
125 |
+
|
126 |
+
# Select the result, entity
|
127 |
+
result.select(
|
128 |
+
expr("explode(ner_chunk) as ner_chunk")
|
129 |
+
).select(
|
130 |
+
col("ner_chunk.result").alias("chunk"),
|
131 |
+
col("ner_chunk.metadata").getItem("entity").alias("ner_label")
|
132 |
+
).show(truncate=False)
|
133 |
+
''', language="python")
|
134 |
+
|
135 |
+
# Data for the DataFrame
|
136 |
+
data = {
|
137 |
+
"chunk": ["جعفر المنصور", "بغداد", "بغداد", "هولاكو"],
|
138 |
+
"ner_label": ["PERS", "LOC", "LOC", "PERS"]
|
139 |
+
}
|
140 |
+
|
141 |
+
# Creating the DataFrame
|
142 |
+
df = pd.DataFrame(data)
|
143 |
+
df.index += 1
|
144 |
+
st.dataframe(df)
|
145 |
+
|
146 |
+
# Model Information
|
147 |
+
st.markdown('<div class="sub-title">Model Information</div>', unsafe_allow_html=True)
|
148 |
+
st.markdown("""
|
149 |
+
<div class="section">
|
150 |
+
<p>The <code>bert_ner_bert_base_arabic_camelbert_mix_ner</code> model details are as follows:</p>
|
151 |
+
<ul>
|
152 |
+
<li><strong>Model Name:</strong> bert_ner_bert_base_arabic_camelbert_mix_ner</li>
|
153 |
+
<li><strong>Compatibility:</strong> Spark NLP 3.4.2+</li>
|
154 |
+
<li><strong>License:</strong> Open Source</li>
|
155 |
+
<li><strong>Edition:</strong> Official</li>
|
156 |
+
<li><strong>Input Labels:</strong> [document, token]</li>
|
157 |
+
<li><strong>Output Labels:</strong> [ner]</li>
|
158 |
+
<li><strong>Language:</strong> ar</li>
|
159 |
+
<li><strong>Size:</strong> 407.3 MB</li>
|
160 |
+
<li><strong>Case sensitive:</strong> true</li>
|
161 |
+
<li><strong>Max sentence length:</strong> 128</li>
|
162 |
+
</ul>
|
163 |
+
</div>
|
164 |
+
""", unsafe_allow_html=True)
|
165 |
+
|
166 |
+
# Summary
|
167 |
+
st.markdown('<div class="sub-title">Summary</div>', unsafe_allow_html=True)
|
168 |
+
st.markdown("""
|
169 |
+
<div class="section">
|
170 |
+
<p>This page provided an overview of the <code>bert_ner_bert_base_arabic_camelbert_mix_ner</code> model for Arabic NER. We discussed how to set up and use the model with Spark NLP, including example code and results. We also provided details on the model's specifications and links to relevant resources for further exploration.</p>
|
171 |
+
</div>
|
172 |
+
""", unsafe_allow_html=True)
|
173 |
+
|
174 |
+
# References
|
175 |
+
st.markdown('<div class="sub-title">Model References</div>', unsafe_allow_html=True)
|
176 |
+
st.markdown("""
|
177 |
+
<div class="section">
|
178 |
+
<ul>
|
179 |
+
<li><a class="link" href="https://huggingface.co/CAMeL-Lab/bert-base-arabic-camelbert-mix-ner" target="_blank" rel="noopener">Hugging Face Model Page</a></li>
|
180 |
+
<li><a class="link" href="https://camel.abudhabi.nyu.edu/anercorp/" target="_blank" rel="noopener">ANERcorp</a></li>
|
181 |
+
<li><a class="link" href="https://arxiv.org/abs/2103.06678" target="_blank" rel="noopener">Research Paper</a></li>
|
182 |
+
<li><a class="link" href="https://github.com/CAMeL-Lab/CAMeLBERT" target="_blank" rel="noopener">CAMeLBERT GitHub</a></li>
|
183 |
+
<li><a class="link" href="https://github.com/CAMeL-Lab/camel_tools" target="_blank" rel="noopener">CAMeL Tools GitHub</a></li>
|
184 |
+
</ul>
|
185 |
+
</div>
|
186 |
+
""", unsafe_allow_html=True)
|
187 |
+
|
188 |
+
# Community & Support
|
189 |
+
st.markdown('<div class="sub-title">Community & Support</div>', unsafe_allow_html=True)
|
190 |
+
st.markdown("""
|
191 |
+
<div class="section">
|
192 |
+
<ul>
|
193 |
+
<li><a class="link" href="https://sparknlp.org/" target="_blank">Official Website</a>: Documentation and examples</li>
|
194 |
+
<li><a class="link" href="https://github.com/JohnSnowLabs/spark-nlp" target="_blank">GitHub Repository</a>: Report issues or contribute</li>
|
195 |
+
<li><a class="link" href="https://forum.johnsnowlabs.com/" target="_blank">Community Forum</a>: Ask questions, share ideas, and get support</li>
|
196 |
+
</ul>
|
197 |
+
</div>
|
198 |
+
""", unsafe_allow_html=True)
|
199 |
+
|
requirements.txt
ADDED
@@ -0,0 +1,6 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
streamlit
|
2 |
+
st-annotated-text
|
3 |
+
pandas
|
4 |
+
numpy
|
5 |
+
spark-nlp
|
6 |
+
pyspark
|