File size: 77,380 Bytes
b92e808
 
89d2a0b
b92e808
 
 
 
 
 
 
 
 
 
 
89d2a0b
b92e808
89d2a0b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b92e808
89d2a0b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b92e808
89d2a0b
b92e808
 
89d2a0b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b92e808
89d2a0b
 
 
 
b92e808
 
89d2a0b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b92e808
 
89d2a0b
 
 
 
 
 
 
 
 
 
 
 
 
 
b92e808
89d2a0b
 
 
b92e808
89d2a0b
 
b92e808
89d2a0b
 
b92e808
 
 
89d2a0b
 
b92e808
89d2a0b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b92e808
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b3f15e2
 
 
b92e808
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
---
language:
- am
license: apache-2.0
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:28046
- loss:MatryoshkaLoss
- loss:MultipleNegativesRankingLoss
base_model: yosefw/roberta-medium-am-embed
widget:
- source_sentence: በከፍተኛ ትምህርትና ስልጠና ተቋማት ከኮሮና ቫይረስ ጋር የተገናኙ ጉዳዮችን የሚከታተል ግብረ ሃይል ተቋቋመ
  sentences:
  - >-
    በመተማ ዮሐንስ ቤት ውስጥ ተደብቀው ተኩስ በከፈቱ አካላት በሰዎች ላይ የሞትና የአካል መቁሰል አደጋ መድረሱን የምዕራብ
    ጎንደር ዞን ፖሊስ መምሪያ አስታወቀ።የመምሪያው ኃላፊ ኮማንደር ጌትነት አልታሰብ  እንደገለፁት  ግለሰቦቹ በከፈቱት ተኩስ
    የ3 ሰዎች ህይወት ሲያልፍ በ20 ሰዎች ላይ ቀላልና ከባድ የአካል ጉዳት ደርሷል።ከተጎጂዎች መካከልም አንድ የፀጥታ
    አካልን ጨምሮ ሴቶችና ወጣቶች ይገኙበታል ብለዋል።የቅማንት ማህበረሰብ ተቆርቋሪ ነን በሚሉ አካላት ጉዳቱ ሊደርስ መቻሉንም
    ኃላፊው ገልፀዋል።ጉዳቱን ካደረሱት አካላት መካከልም አራቱ እጃቸውን የሠጡ ሲሆን ቀሪዎቹም በሰላማዊ መንገድ ለፀጥታ
    ኃይሎች እጃቸውን እንዲሠጡ እየተጠየቁ ስለመሆኑ ኃላፊው ተናግረዋል፡፡ጉዳት ካደረሱት ግለሰቦችም 9 የክላሽንኮቭ፣ አንድ
    ኤፍ ኤን መሳሪያ፣አንድ ሽጉጥ፣ አንድ ቦንብና በርካታ ጥይቶች በቁጥጥር ስራ መዋላቸውን  ኮማንደር ጌትነት
    አስታውቀዋል።ጉዳት የደረሰባቸው ሰዎች በመተማ ዮሐንስ ጤና ጣቢያ፣ በገንዳ ውሃ ሆስፒታልና በጎንደር ሪፈራል ሆስፒታል
    ህክምና እየተደረጋላቸ ነው ብለዋል።ለዘመናት ተሳስሮ በኖረው የአማራና የቅማንት ማህበረሰብ መካከል ግጭት ለመፍጠር
    የሚንቀሳቀሱ አካላት ከድርጊታቸው እንዲቆጠቡ ያሳሰቡት ኮማንደሩ፤ ችግሩ እስኪበርድ የአካባቢው የሃይማኖት አባቶችና የሃገር
    ሽማግሌዎች ህብረተሰቡን በማስተማር የድርሻቸውን ሊወጡ ይገባል ብለዋል።ወጣቱ የአካባቢውን ሰላም በመጠበቅና  ከፀጥታ ሃይሉ
    ጎን በመሰለፍ ጥፋተኞችን በመለየት ለህግ እንዲያቀርብ ጥሪ አቅርበዋል።የተፈጠረውን  ግጭት ላማረጋጋት የመከላከያ ሰራዊት፣
    የክልሉ ልዩ ኃይል፣ የፖሊስ አባላትና የአካባቢ ሚሊሻዎች በጋራ በመሆን ወደ  እየሰሩ ናቸው ሲሉ ኮማንደሩ
    ጠቅሰዋል፡፡(ኢዜአ) 
  - >-
    አዲስ አበባ፣ መጋቢት 9፣ 2012(ኤፍ.ቢ.ሲ) በሁሉም ከፍተኛ ትምህርትና ስልጠና ተቋማት ከኮሮና ቫይረስ ጋር የተገናኙ
    ጉዳዮችን የሚከታተል ግብረ ሃይል በሳይንስና ከፍተኛ ትምህርት ሚኒስቴር ተቋቁሞ እየሰራ እንደሚገኝ ተገለጸ።ግብረ ሃይሉ
    ከመጋቢት 7 ቀን 2012 ዓ.ም ጀምሮ የከፍተኛ ትምህርትና ስልጠና ተቋማት ተማሪዎች የክፍል ውስጥ ትምህርት አቁመው አጋዥ
    መፅሐፍት (ሃንድ አውት)፣ ማጣቃሻ መፅሐፍት፣ በበይነ መረብ በመታገዝ እና ሶፍት ኮፒ ለቀጣዮቹ 2 ሳምንታት በግላቸው
    እንዲያነቡ አቅርቧል።በዩኒቨርሲቲዎች ተማሪዎች እጃቸውን አዘውትረው እንዲያፀዱም የውሃ አቅርቦትን የማሻሻል፣ የመታጠቢያ
    ሳሙናዎችንና አስፈላጊ ግብዓቶችን የማሟላትና የማቅረብ ስራዎች እየተከናወኑ መሆኑንም ሚኒስቴሩ ገልጿል።ከዚህ ባለፈም
    ስለቫይረሱ ለተማሪዎች እና ለከፍተኛ ትምህርት ተቋማት ማህበረሰቡ ግንዛቤ ለመፍጠር ዩኒቨርሲቲዎች የተለያዩ መንገዶችን
    እየተከተሉ መሆኑ ተጠቁሟል።በሁለት ሳምንታ እድሜያቸው ከ60 ዓመት በላይ የሆኑና የልብ ወይም የካንሰር እንዲሁም የስኳርና
    ሌሎች ተዛማጅ ህመሞች ያሉባቸው፣ የአስምና የመተንፈሻ አካላት ችግር ያሉባቸው ሠራተኞች ከሌሎች የበለጠ ጥንቃቄ ማድረግ
    እንደሚገባቸው መመከሩን ከሳይንስና ከፍተኛ ትምህርት ሚኒስቴር ያገኘነው መረጃ ያመለክታል።
  - >-
    አዲስ አበባ፤ ነሐሴ 3/2005 (ዋኢማ) – በትግራይ ክልል በሚገኙ ሦስት ታሪካዊና ጥንታዊ ቦታዎች ላይ የቅርሶች ጥበቃ፣
    የመካነ ቅርስ ቁፋሮና የምርምር ስራዎች እያካሄደ መሆኑን የመቀሌ ዩኒቨርስቲ አስታወቀ፡፡የዩኒቨርስቲው ፕሬዚዳንት ዶክተር
    ክንደያ ገብረ ህይወት እንደገለጹት ዩኒቨርስቲው ምርምሩን በማካሄድ ላይ ያለው ከዚህ በፊት በሌሎች አካላት የቅርስ ጥበቃ፣
    የመካነ ቅርስ ቁፋሮና የምርምር ስራዎች ባልተካሄዱባቸው አካባቢዎች ነው፡በዚህም ዩኒቨርስቲው በሓውዜን ወረዳ ዓንዛ ማሪያም
    ጥንታዊ ቤተክርስትያን ያሉ ጥንታዊ መካነ ቅርሶች ላይ ተገቢውን ጥበቃ በማድረግ አከባቢውን አስመልክቶ የሚነገሩ  አፈ
    ታሪኮችን ትክክለኛነት ለማረጋገጥ በቁፋሮ ጥልቅ የምርምር ስራ እያካሄደ ነው።እንዲሁም በእንደርታ ወረዳ ልዩ ስሙ ”ዓዲ
    መዓር(ድርባ)”በተባለ ቦታ ላይ በአውነ አሳይ ጥንታዊ ቤትክርስትያን ላይ በተለያዩ ምክንያቶች የደረሰበትን የመፍረስ አደጋ
    መልሶ በመገንባት በውስጡ የሚገኙ የተንቀሳቃሽ ቅርሶች ጥበቃ እያካሄደ ሲሆን፣ በአፈ ታሪክ የሚነገሩ ድንቅ ታሪኮቹም
    በሳይንሳዊ መንገድ ተጠንተው ለቱሪዝም ልማት ጥቅም ላይ እንዲውሉ እየሰራ መሆኑን ዶክተር ክንደያ ተናግረዋል።በተጨማሪ
    ዩኒቨርስቲው የጣሊያን ወራሪ ሃይል የኢትዮጵያ አባት አርበኞች ትግል ለመመከት በመቀሌ ከተማ በእንዳ እየሱስ ተራራ ላይ
    ”ፎርቶ” በሚል ስም የሚታወቀው ስፍራ ላይ ታሪካዊነቱ በሚያጎላ መልኩ እድሳት ተደርጎለት ለመዝናኛ አገልግሎት እንዲውል
    የተለያዩ ግንባታዎች እያካሄደ መሆኑን ፕሬዚዳንቱ ገልጸዋል።ዩኒቨርስቲው በትግራይ ክልል የሚገኙ ታሪካዊና ጥንታዊ ቅርሶች
    ተገቢው ጥበቃ እንዲደረግላቸውና በመካነ ቅርስ ቁፋሮ የምርምር ስራ የበኩሉን ድርሻ እንዲወጣ በዩኒቨርስቲው የባህልና ቅርስ
    ጥበቃ የትምህርት ክፍል ከፍቶ በመጀመሪያ ዲግሪ እያሰለጠ ይገኛል።ዩኒቨርስቲው በኢትዮጵያ ውሰጥ ያሉ የተለያዩ ብሄር
    ብሄረሰቦች ባህሎችና ጥንታዊ ቅርሶች እንዲጠበቁ በማድረግ ለቱሪዝም ልማት እንዲውሉ ለማድረግ ባለፈው ሳምንት ዓለም አቀፍ
    አውደ ጥናት በማዘጋጀት የተለያዩ ጠቃሚ ልምዶች ማግኘቱን ዶክተር ክንደያ ገብረ ህይወት ገልጸዋል ሲል ኢዜአ ዘግቧል።
- source_sentence: የደቡብ ክልል ም/ርዕሰ መስተዳድር አቶ ርስቱ ይርዳው በደቡብ ኦሞ ዞን ኛንጋቶም ወረዳ የተከናወኑ የልማት ስራዎችን ጎበኙ
  sentences:
  - >-
    አዲስ አበባ፦ የኢትዮጵያ እግር ኳስ ፌዴሬሽን 12ኛ መደበኛ ጠቅላላ ጉባዔውን ትናንት አካሂዷል፡፡ ያለፈው ዓመት ባጋጠሙ
    በርካታ ውጣ ውረዶች ስፖርቱ አሉታዊ ተጽእኖ ቢደርስበትም የተሻለ አፈጻጸም የተመዘገበበት መሆኑ ተመላክቷል፡፡ በተለይም
    በአዲስ አበባ ከተማ የሚገኘውን የካፍ አካዳሚን በማስጠገን ለአገልግሎት መብቃቱ፤ ፌዴሬሽኑ ለብሔራዊ ቡድን ዝግጅት
    የሚያወጣውን ከፍተኛ ወጪ ታድጓል። የአህጉርና ዓለም አቀፍ ግንኙነትን በማጠናከር ረገድም ጠንካራ ሥራ በመከናወኑ ኢትዮጵያ
    በሴካፋ የመሪነት ቦታ ማግኘቷም በጉባኤው ላይ መነሳቱን የኢፌዴሪ ስፖርት ኮሚሽን በድረ-ገጹ አስነብቧል፡፡ በጉባኤው
    በቀረበው የ2012 በጀት ዓመት የአፈጻጸም ሪፖርት ላይም ፌዴሬሽኑ የገንዘብ አቅሙን ማሳደጉ ተገልጧል፡፡ ለዓመታት
    የክለቦች ጥያቄ የነበረውን የሊግ ካምፓኒ ምስረታ እውን ማድረጉንም እንደ ስኬት ተነስቷል፡፡ በቀረበው ሪፖርት እና
    የ2013 በጀት ዓመት ዕቅድ ላይም በጉባኤው አባላት ውይይት ተደርጓል፡፡ በመጨረሻም የሲዳማ ክልል የጉባኤው አባልነት
    ጥያቄን ተቀብሎ በማፅደቅ እና በአጭር ጊዜ ውስጥ በተሻሻለው መተዳደሪያ ደንብ ላይ ለመወያየት እና ለማጽደቅ በሀዋሳ ከተማ
    አስቸኳይ ጉባኤ እንደሚካሄድ በመወሰን ጉባኤው መጠናቀቁን በዘገባው ተመላክቷል።አዲስ ዘመን ህዳር 28/2013
  - >-
    አዲስ አበባ፣ መስከረም 9፣ 2013 (ኤፍ.ቢ.ሲ) የደቡብ ክልል ምክትል ርዕሰ መስተዳድር አቶ ርስቱ ይርዳው በደቡብ ኦሞ
    ዞን ኛንጋቶም ወረዳ የተከናወኑ የልማት ስራዎችን ጎብኝተዋል።ወደ ደቡብ ኦሞ ዞን ያቀናው በምክትል ርዕሰ መስተዳድር አቶ
    እርስቱ ይርዳው የተመራውና የክልሉ ከፍተኛ የስራ ሀላፊዎች ያካተተው ቡድን የኦሞ ወንዝን በመስኖ በመጠቀም እየለማ ያለ
    የሙዝ እርሻን መጎብኘታቸውን የክልሉ የመነግስት ኮሙዩኒኬሽን ጉዳዮች ቢሮ መረጃ ያመለክታል።በኛንጋቶም ወረዳ በናፕሱመሪያ
    ቀበሌ በማህበር ተደራጅተው ሙዝ እያለሙ ያሉ ሴቶችን የስራ እንቅስቃሴ የጎበኙ ሲሆን፥ በዚሁ ወቅት “የሙዝ እርሻ እያለሙ
    ያሉ አርብቶ አደር እንደመሆናችን ከዚህ ቀደም በእርሻ ስራ ላይ ተሳትፎ እያደረግን አልነበረም እናም አሁን መንግስት
    ባደረገልን ድጋፍ ሙዝ እያለማን ነው” ብለዋል።አስተያየት ሰጪዎቹ ገለጻ እያለሙት ያለውን የሙዝ እርሻ ስኬታማ ለማድረግ
    የውሀ መሳቢያ ፓምፕ ችግር እያጋጠማቸው መሆኑን ጠቁመዋል።“በመንደር እንድንሰባሰብ ከተደረገ በኅላ የንጹህ መጠጥ ውሃ
    መጠለያና ተዛማጅ ተግባራት ሊሟላልን ይገባል” ሲሉም ጠይቀዋል።ምክትል ርዕሰ መስተዳድር አቶ ርስቱ ይርዳው፥ ከአርብቶ
    አደሩ ማህበረሰብ ለተነሳላቸው ጥያቄ በሰጡት ምላሽ በመስኖ ዙሪያ ያጋጠማቸውን ችግር የክልሉ መንግስት እንደሚገነዘበው
    ጠቅሰዋል።በቀጣይ የህብረተሰቡን ህይወት ለመቀየር መንግስት የመስኖ ልማት ስራን እንደሚደግፍ በመግለፅ፤ የፓምፕ ችግሮችን
    ለመፍታት ጥረት እንደሚደረግም አስታውቀዋል።አሁን በስፋት እየለማ ያለውን ሙዝ ወደ የገበያ ለማቅረብ የገበያ  ትስስር
    ለመፍጠርም ድጋፍ እንደሚደረግም ምክትል ርእሰ መስተዳድሩ አስታውቅዋል።የተጀመረው የልማት ስራ ተጠናክሮ እንዲቀጥል
    ያስታወቁት አቶ ርስቱ፥ ቀበሌን ከወረዳ የሚያገናኙ መንገዶችን ለመገንባት ጥረት እንደሚደረግም ተናግረዋል።
  - ' የኢትዮጵያ ሰብአዊ መብቶች ጉባኤ፤ የአርቲስት ሃጫሉ ሁንዴሳ ግድያን ተከትሎ በተፈጠረው ሁከትና ግርግር በኦሮሚያ የደረሰውን የሰብአዊ ጉዳት የሚመረምር ቡድን ከሣምንቱ አጋማሽ ጀምሮ ማሠማራቱን ለአዲስ አድማስ አስታውቋል:: ተቋሙ ሁከትና ግርግር በተፈጠረባቸውና ጉዳት በደረሰባቸው ሁሉም የኦሮሚያ አካባቢዎች የምርመራ ቡድን ማሰማራቱን አመልክቷል፡፡ በምርመራው የሚገኙ ውጤቶችን ከዓለማቀፍ የሰብአዊ መብት ድንጋጌዎች አንፃር በመመዘን የተፈፀመው ድርጊት ምንድን ነው? ምን ያህል ጉዳት አጋጥሟል? መንግስት የወሰደው እርምጃስ ምንድን ነው? እነማን በድርጊቱ ተሳትፈዋል? የሚለውን የመለየት ተግባር እንደሚከናወን ታውቋል፡፡ '
- source_sentence: የኢትዮጵያ ልማት ባንክ አራት አዳዲስ ምክትል ፕሬዚዳንቶችን ሾመ
  sentences:
  - >-
    በጃፓን ላለፉት 30 ዓመታት ንጉስ ሆነው ያገለገሉት የ85 ዓመት ንጉስ አክሂቶ በገዛ ፈቃዳቸው ስልጣናቸውን ለመልቀቅ
    ተስማምተዋል፡፡ንጉሱ ከ200 ዓመታት ወዲህ በፍላጎት ስልጣን ለመልቀት የተስማሙት የመጀመሪያ ንጉስ ናቸው ተብሏል፡፡ንጉሱ
    ስልጣናቸውን ለመልቀቅ የተስማሙት እድሜቸው እየገፋ በመሄዱና የጤናቸው ሁኔታ ስራቸውን መስራት አስቸጋሪ በማድረጉ ነው
    የተባለው፡፡የንጉሱ ስልጣን የመልቀቅ ጥያቄ በአገሪቱ ህጋዊ ፍቃድ አግኝቶ በዛሬው እለት የስልጣን ርክክብ ሂደት
    ተጀምሯል፡፡ንጉስ በአገሪቱ ምንም የፖለቲካ ስልጣን ሚና ባይኖረውም ለጃፓን እንደ ብሄራዊ አርማ ተደርጎ ይወሰዳል ነው
    የተባለው፡፡ንጉስ አክሂቶ በልጃቸው ናሩሂቶ የሚተኩ ሲሆን፣ ናሩሂቶ ከነገ ጀምረው የጃፓን ንጉስ ይሆናሉ ነው
    የተባለው፡፡(ምንጭ፡- ቢቢሲ)
  - >-
    የኢትዮጵያ  ልማት ባንክ  አራት  አዳዲስ  ምክትል  ፕሬዚዳንቶችን  መሾሙን አስታወቀ ።የባንኩ የኮርፖሬት
    ማስተዋወቅናግንኙነት ተጠባባቂ ዳይሬክተር አቶ ኃይሉ ምስጋናው እንደገለጹት  የሊዝ ፋይናንስ እና ቅርንጫፎች ሥራ ምክትል
    ፕሬዚዳንት ከሆኑት አቶ ተሾመ ዓለማየሁ በስተቀር ሌሎቹ አራት የባንኩ ምክትል ፕሬዚዳንቶችን ከኃላፊነታቸው በማንሳት
    በአዳዲስ  እንዲተኩ ተደርጓል  ።ባንኩ አዲስ የሾማቸው  አቶ ጌታቸው ዋቄ በፕሮጀክት ፋይናንስ ምክትል ፕሬዚዳንት፣ አቶ
    ኃይለእየሱስ በቀለ በብድር አገልግሎት ምክትል ፕሬዚዳንት ፣ አቶ ሃዱሽ ገብረእግዚአብሄር የኮርፖሬት አገልግሎት ምክትል
    ፕሬዚዳንት እና አቶ እንዳልካቸው ምህረቱ የፋይናንስና ባንኪንግ ምክትል ፕሬዚዳንት በመሆን ነው ።የኢትዮጵያ ልማት ባንክ
    በለውጥ ሂደት ውስጥ በመሆኑና ለዚህ አዲስ አደረጃጀት እየሰራ መሆኑም ለምክትል ፕሬዚዳንቶቹ መነሳት ምክንያት ነው
    ተብሏል።ባንኩ የዘረጋውን አዲስ መዋቅር መሠረት በማድረግ በቅርቡ ፕሬዚዳንት መሾሙ ይታወሳል።ባንኩ አደረጃጀቱን በአዲስ
    የሰው ኃይል ለማሟላት እየሰራ እንደሆነም ነው የተነገረው።ለተሰናባቾቹ ምክትል ፕሬዚዳንቶች የደረሰው ደብዳቤም
    ለአገልግሎታቸው ምስጋናን ያካተተ መሆኑ ተመልክቷል። 
  - >-
    ባለፈው ቅዳሜ በሰሜን ምሥርቅ ናይጀርያ በታጠቁ ሽፍቶችና በመንደር ነዋሪዎች መካከል በተካሄደ ግጭት 45 ሰዎች
    ተገድለዋል።

    ሽፍቶቹ ካዱና በተባለው ሰሜናዊ ክፍለ፡ሀገር በሚገኘው ግዋስካ ድንበር ላይ ጥቃት ከፈቱ። የአካባቢ ጥበቃ ኃይል አባል
    የሆነ ሰው በተናገረው መሰረት ሽፍቶቹ የጥበቃ ኃይሉን በማጥቃት በልጆች ላይ ተኩስ ከፍቷል። መኖርያ ቤቶችንም በእሳት
    አጋይተዋል።ማንነቱ ያልተገለፀው የጥበቃ ኃይል አባል አጥቂዎቹ በአቅራቢያው ከሚገኘው ዛምፋራ ክፍለ፡ሀገር የመጡ ናቸው
    ብሏል።
- source_sentence: በሲዳማ የህዝብ ውሳኔ ጥቅም ላይ በሚውሉ ምልክቶች ዙሪያ ውይይት እየተደረገ ነው
  sentences:
  - >-
    – በአገሪቱ በኢንዱስትሪው ዘርፍ ፈጣን የሆነ ዕድገት ለማስመዝገብ በየደረጃው የሚገኙ አስፈጻሚው አካላት የበኩላቸውን ሚና
    እንዲጫወቱ የኢንዱስትሪ ሚኒስቴር ጥሪ አቀረበ።ጥሪው የቀረበው ሚኒስቴሩ በሥሩ ከሚገኙት ተጠሪ ተቋማት ለተውጣጡ 150
    አመራሮች በአገሪቱ ኢንዱስትሪ ልማት ስትራቴጂ ላይ ለሶስት ተከታታይ ቀናት በሰጠው ሥልጠና ማጠናቀቂያ ላይ
    ነው።የኢንዱስትሪ ሚኒስትር ክቡር አቶ አህመድ አብተው በወቅቱ እንደገለጹት የኢንዱስትሪ ልማቱን ዕድገት ለማፋጠን
    የአስፈጻሚ አካላት ሚና ወሳኝ ነው።የአስፈጻሚ አካላት ሚናቸውን እንዲወጡም በኢንዱስትሪ ልማት እስትራቴጂው ላይ ያላቸው
    ግንዛቤና የማስፈጸም ብቃት ወሳኝ እንደሆነም ሚኒስትሩ ተናግረዋል።ለሦስት ተከታታይ ቀናት የተሠጠው ሥልጠና አመራሩ
    በተግባር ወቅት የሚያጋጥሙትን ችግሮች እንዲፈታና በዘርፉ ያለውን ዕድገት ለማሻሻል እንደሚያግዝ ሚኒስትሩ መናገራቸውን
    ዋልታ ዘግቧል።
  - >-
    ያለፉትን ሁለት ዓመታት የኢትዮጵያ ብሔራዊ ቡድንን በማሰልጠን የቆዩት ኢንስትራክተር አብርሀም መብራቱ ከሁለት ቀናት በኃላ
    ሐምሌ ሠላሳ ኮንትራታቸው የሚያበቃ ይሆናል። ፌዴሬሽኑ በበኩሉ የአሰልጣኙን  ውል በተለያዩ ምክንያቶች እንደማያድስ በይፋ
    መግለፁ ይታወቃል። በዚህ መነሻነት አሰልጣኙ ከተለያዩ ክለቦች ጋር ስማቸው እየተያያዘ ይገኛል። ስለሚነሳው ጉዳይ እና
    በቀጣይ የብሔራዊ ቡድን ኮንትራታቸው ካበቃ በኋላ እቅዳቸው ምን ይሆን በማለት ላቀረብንላቸው ጥያቄ ተከታዩን ምላሽ
    ሰጥተውናል።“እስካሁን ከማንም ጋር በዚህ ጉዳይ አልተነጋገርኩም። እስከ ሐምሌ ሠላሳ የፌዴሬሽኑ ሠራተኛ ነኝ፤ በዚህ መሐል
    ከማንም ጋር መነጋገር አልችልም። ከዚህ ክለብ ጋር ተስማምቷል የሚሉ ነገሮችን በተለያዩ መገናኛ ብዙሀን እሰማለው። እኔ
    ግን በግልፅ ከአንዳቸው ጋር አልተነጋገርኩም። ከካፍ እና ከፊፋ ጋር የምሰራቸው ሥራዎች (የቪዲዮ ኮንፍረሶች) አሉ።
    እነርሱ ሥራ ላይ ትኩረት እያደረኩ ነው ያለሁት። በቀጣይ ከፈጣሪ ጋር ማረፊያዬን አሳውቃለው። እዚሁ በሀገሬ እየሰራው
    የምቆይ ይመስለኛል። ለማንኛውም ከሐምሌ ሠላሳ በኃላ የሚሆነውን አብረን እናያለን።” ብለዋል።
  - >-
    የሲዳማ ዞን ክልል ሆኖ ለመደራጀት በሚካሄደው የህዝብ ውሳኔ ጥቅም ላይ በሚውሉ ምልክቶች ውይይት እየተደረገ መሆኑን
    የኢትዮጵያ ብሔራዊ ምርጫ ቦርድ አስታውቋል፡፡በምልክቶቹ የመጀመሪያው ረቂቅ ላይ ለመወሰን የደቡብ ክልል ምክር ቤት ውይይት
    እየተደረገ መሆኑን በኢትዮጵያ ብሔራዊ ምርጫ ቦርድ ኮምዩኒኬሽንስ አማካሪ ወ/ት ሶሊያና ሽመልስ ተናግረዋል፡፡በህዝበ
    ውሳኔው የሚቀርቡ ምልክቶቹ ምን አይነት ይሁኑ በሚለው እና ምልክቶቹ በተቀመጠው መስፈርት መሰረት ገለልተኛ፣ የማህበረሰቡን
    ምስል የሚያሳዩ እንዲሁም ጥያቄዎቹ ግልጽ እንዲሆኑ እየተሰራ ነው ተብሏል፡፡በውይይቱ ላይ ስምምነት የተደረሰባቸው ምልክቶች
    ለህዝብ ይፋ እንደሚደረጉ ተጠቁሟል፡፡የህዝበ ውሳኔው አፈጻጸሞች በክልሉ ጥያቄ ለተወሰኑ ቀናቶች ከተራዘሙት ውጪ አብዛኞቹ
    በተያዘላቸው መርሀ ግብር እየተከናወኑ እንደሆነም ተነግሯል፡፡የህግ አስፈጻሚ እና የጸጥታ አካላት እንዲሁም የቦርዱ የስራ
    አመራር አባላት የህዝበ ውሳኔውን አፈጻጸም ሰላማዊነት ለማረጋገጥ ውይይት ማካሄዳቸው ታውቋል፡፡የድምፅ ሰጪዎች ምዝገባ፣
    እንዲሁም የድምፅ መስጫ እና ድህረ ምርጫ ሂደቱን ሰላማዊነት ለማረጋገጥ እንዲሁም የምርጫ አስፈጻሚዎችን ደህንነት
    ለማስጠበቅ የህግ አስፈጻሚ አካላት ትብብር እንደሚያስፈልግ ቦርዱ ለተሳታፊዎቹ ማስገንዘቡ ተገልጿል፡፡ለህዝበ ውሳኔ ምርጫ
    አስፈፃሚዎች ስልጠና በአዲስ አበባ ከተማ ከመስከረም 24 እስከ 30 ከተሰጠ በኋላ እንደሚሰማሩም የኢቢሲ ዘገባ
    አመልክቷል፡፡በቀጣይ የሚካሄዱ ተግባራትም በመርሃ ግብሩ መሰረት ለማከናወን ዝግጅቶች እየተካሄዱ እንዳለ ለማወቅ
    ተችሏል፡፡በተያያዘ ዜና የኢትዮጵያ ብሔራዊ ምርጫ ቦርድ በመጪው ህዳር 3 ቀን 2012 ዓ.ም የሲዳማ ዞን የክልልነት
    ጥያቄን ህዝበ ውሳኔ አማራጭ ሃሳቦችና የሚወከሉበት ምልክቶችን ይፋ አድርጓልበዚህም መሰረት “ሲዳማ በደቡብ ብሔር
    ብሔረሰቦችና ህዝቦች ክልል ውስጥ እንዲቆይ እፈልጋለሁ” ለሚለው አማራጭ የጎጆ ቤት ምልክት፣  “ሲዳማ ራሱን ችሎ
    በክልልነት እንዲደራጅ እፈልጋለሁ” ለሚለው አማራጭ የሻፌታ ምልክት ሆኖ ለህዝበ ውሳኔው ድምጽ መስጫነት እንዲያገለግል
    ተወስኗል ።
- source_sentence: ሁለት የብአዴን አመራሮች ላይ ያነጣጠረ ጥቃት በደብረ ማርቆስ መፈጸሙ ተሰማ
  sentences:
  - >-
    አንድነት ለዲሞክራሲና ለፍትህ ፓርቲ በሚቀጥሉት የምርጫ ወራት በሚልዮኖች ድምጽ ለነጻና ፍትሀዊ ምርጫ የኢትዮጵያ ህዝብ
    የስልጣን ባለቤት እንዲሆን እናደርጋለን ሲል ዛሬ ረፋዱ ላይ በጽህፈት ቤቱ በሰጠው መግለጫ ላይ ባሰራጨው ጽሁፍ ግልጽ
    አድርጓል።ከዚህ ቀደም ፓርቲው ያካሄዳቸውን የሚልዮኖች ድምጽ ለነጻነትና የሚልዮኖች ድምጽ ለመሬት ባለቤትነት ንቅናቄዎች
    አስታውሶ በተለይ በመጀመርያው እንቅስቃሴ የፈለገውን ውጤት እንዳገኘ የፓርቲው የውጭ ግንኙነት ሃላፊ አቶ ዳንኤል ተፈራ
    አብራርተዋል።ሶስተኛውና የመጨረሻው የአንድነቶች የሚልዮኖች ድምጽ እንቅስቃሴ ይኸው የሚልዮኖች ድምጽ ለነጻነትና ለፍትሀዊ
    ምርጫ የሚል መሆኑንም የጽሁፉ መግለጫ ይጠቁማል። አንድነት በሰላማዊ መንገድ የስልጣን ሽግግር ለማምጣት ላቀደው ዋነኛ
    የትግል ምዕራፍ በሀገራችን እውነተኛ ለውጥ እንዲመጣ የሚፈልጉ ዜጎች ሁሉ ፓርቲውን በአበላነትና በደጋፊነት በመቀላቀል
    የለውጡ አካል እንዲሆኑ የሚያደርግ ተደራጅ 2007 ለለውጥ የሚል ሰፊ የማደረጀትና የቅስቀሳ ዘመቻ ለማካሄድ ዝግጅቱን
    እንዳጠናቀቀ ገልጿል። ሙሉውን ዘገባ ያድምጡ።          
     
  - >
    የእንግሊዙ ጠቅላይ ሚኒስትር ቦሪስ ጆንሰን የጣሉትን ጥብቅ የእንቅስቃሴ እና የጉዞ እገዳ በመተላለፍ ወደ ቤተሰባቸው
    አቅንተዋል የተባሉ አማካሪያቸውን ከኃላፊነት እንዲያነሱ የቀረበላቸውን ጥሪ ውድቅ አድርገዋል፡፡

    የ2016ቱን የእንግሊዝን ከአውሮፓ ህብረት የመነጠል ሂደት (ብሬግዚት) በበላይነት የመሩት ዶሚኒኪ ከሚንግስ 400 ኪሎ
    ሜትሮችን አቆራርጠው በሰሜናዊ እንግሊዝ ዱርሃም ወደሚገኙ ቤተሰቦቻቸው ያቀኑት ጆንሰን እገዳውን ባስተላለፉበት ባሳለፍነው
    ወርሃ መጋቢት ነበር፡፡

    በወቅቱ የከሚንግስ ባለቤት የኮሮና ህመም ምልክቶችን ያሳዩ ነበር የተባለ ሲሆን የአንድ ልጃቸውን ሁኔታ ለመመልከት ወደ
    ቤተሰባቸው ማቅናታቸውም ይነገራል፡፡

    ሆኖም የልጃቸውን ሁኔታ ቤተሰባቸው ሊከታተል እንደሚችል የሚናገሩ የተፎካካሪ ፖለቲካ ፓርቲዎች እገዳውን በመተላለፋቸው
    ከኃላፊነት ሊነሱ ይገባል ሲሉ ድምጻቸውን አሰምተዋል፡፡

    የጠቅላይ ሚኒስትሩ ጽህፈት ቤት ግን ጥያቄውን አልተቀበለም ሮይተርስ እንደዘገበው ከሆነ፡፡

    አማካሪው የጥንቃቄ መርሆዎችን አክብረው የልጃቸውን ሁኔታ ለመመልከት ወደ ቤተሰባቸው ቢያቀኑም በአጎራባች መንደሮች ሆነው
    ሁኔታዎችን ከመከታተል ውጪ ከቤተሰባቸው እንዳልተቀላቀሉም አስታውቋል፡፡

    ከአማካሪያቸው ጉዞ ጥቂት ቀናት በፊት እገዳ ስለመጣላቸው አስታውቀው የነበሩት ጆንሰን ራሳቸው በቫይረሱ ተይዘው እንደነበር
    የሚታወስ ነው፡፡
  - >-
    ሁለት የብሔረ አማራ ዴሞክራሲያዊ ንቅናቄ (ብአዴን) ከፍተኛ አመራሮች ላይ ያነጣጠረ የጥቃት ሙከራ በደብረ ማርቆስ ከተማ
    መፈጸሙ ተሰማ።የጥቃት ሙከራው የብአዴን መስራችና የቀድሞ የፖሊሲ ጥናትና ምርምር ማዕከል ምክትል ዋና ዳይሬክተርና
    የመንግሥት ኮሙዩኒኬሽን ጉዳዮች ሚኒስትር የነበሩት አቶ በረከት ስምዖንና ሌላ የብአዴን ማዕከላዊ ኮሚቴ አባል በሆኑት አቶ
    ምግባሩ ከበደ ላይ መሆኑን ከክልሉ መንግሥት የኮሙዩኒኬሽን ጉዳዮች ቢሮ ኃላፊ አቶ ንጉሡ ጥላሁን ያገኘነው መረጃ
    ያመለክታል።ሁለቱ የብአዴን አባላት በከተማው ታይተዋል የሚል ወሬ በማኅበራዊ ድረ ገጾች መናፈሱን ተከትሎ፣ ግለሰቦቹ ለሌላ
    ተልዕኮ እየተንቀሳቀሱ እንደሆኑ የጠረጠሩ የከተማው ነዋሪዎች በደብረ ማርቆስ ሆቴል ላይ ጉዳት ሲያደርሱ ትኩረት
    ከተደረገባቸው ፖለቲከኞች የአንዱ ነው ተብሎ የተጠረጠረ ተሽከርካሪ በእሳት ማቃጠላቸውንም ለማወቅ ተችሏል።አቶ ንጉሡ
    ድርጊቱን ያወገዙ ሲሆን፣ በከተማው ታይተዋል ከተባሉ አመራሮች አንዱ አቶ ምግባሩ በባህር ዳር የክልሉ ምክር ቤት ስብሰባ
    ላይ አብረዋቸው እየተሳተፉ እንደሚገኙ ገልጸዋል።‹‹ማንኛውም አመራርም ሆነ ዜጋ በየትኛውም ቦታ የመንቀሳቀስ መብቱን
    ሊገድብ የሚችል ነገር ሊኖር አይገባም፤›› ያሉት አቶ ንጉሡ፣ ‹‹ሰሞኑን የአንዳንድ አመራሮች ስም እየተጠቀሰ ሕዝቡን
    በማደናገርና ብጥብጥ በማንገስ በክልላችን የተገኘውን ሰላም ለመቀልበስ የሐሰት መረጃዎች እየተናፈሱ በመሆኑ ሕዝባችን ታላቅ
    ጥንቃቄ ማድረግ ይገባዋል፤›› ሲሉ አሳስበዋል።ሁለቱ የብአዴን ፖለቲከኞች ለራሳቸው የፖለቲካ ፍላጎት በደብረ ማርቆስ ከተማ
    በድብቅ ሕዝብ በማወያየት ላይ እንደሚገኙ የሚገልጽ ሐሰተኛ ወሬ የጥቃቱ ምክንያት እንደሆነ ተገልጿል።
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_map@100
model-index:
- name: RoBERTa Amharic Text Embedding Medium
  results:
  - task:
      type: information-retrieval
      name: Information Retrieval
    dataset:
      name: dim 512
      type: dim_512
    metrics:
    - type: cosine_accuracy@1
      value: 0.629451395572666
      name: Cosine Accuracy@1
    - type: cosine_accuracy@3
      value: 0.7629130574270132
      name: Cosine Accuracy@3
    - type: cosine_accuracy@5
      value: 0.8055822906641001
      name: Cosine Accuracy@5
    - type: cosine_accuracy@10
      value: 0.8610843760025666
      name: Cosine Accuracy@10
    - type: cosine_precision@1
      value: 0.629451395572666
      name: Cosine Precision@1
    - type: cosine_precision@3
      value: 0.254304352475671
      name: Cosine Precision@3
    - type: cosine_precision@5
      value: 0.16111645813282002
      name: Cosine Precision@5
    - type: cosine_precision@10
      value: 0.08610843760025665
      name: Cosine Precision@10
    - type: cosine_recall@1
      value: 0.629451395572666
      name: Cosine Recall@1
    - type: cosine_recall@3
      value: 0.7629130574270132
      name: Cosine Recall@3
    - type: cosine_recall@5
      value: 0.8055822906641001
      name: Cosine Recall@5
    - type: cosine_recall@10
      value: 0.8610843760025666
      name: Cosine Recall@10
    - type: cosine_ndcg@10
      value: 0.7440549236092329
      name: Cosine Ndcg@10
    - type: cosine_mrr@10
      value: 0.7068235635608099
      name: Cosine Mrr@10
    - type: cosine_map@100
      value: 0.7115345565787713
      name: Cosine Map@100
  - task:
      type: information-retrieval
      name: Information Retrieval
    dataset:
      name: dim 384
      type: dim_384
    metrics:
    - type: cosine_accuracy@1
      value: 0.6256015399422522
      name: Cosine Accuracy@1
    - type: cosine_accuracy@3
      value: 0.7651588065447545
      name: Cosine Accuracy@3
    - type: cosine_accuracy@5
      value: 0.8055822906641001
      name: Cosine Accuracy@5
    - type: cosine_accuracy@10
      value: 0.8594802694898941
      name: Cosine Accuracy@10
    - type: cosine_precision@1
      value: 0.6256015399422522
      name: Cosine Precision@1
    - type: cosine_precision@3
      value: 0.2550529355149182
      name: Cosine Precision@3
    - type: cosine_precision@5
      value: 0.16111645813282002
      name: Cosine Precision@5
    - type: cosine_precision@10
      value: 0.08594802694898941
      name: Cosine Precision@10
    - type: cosine_recall@1
      value: 0.6256015399422522
      name: Cosine Recall@1
    - type: cosine_recall@3
      value: 0.7651588065447545
      name: Cosine Recall@3
    - type: cosine_recall@5
      value: 0.8055822906641001
      name: Cosine Recall@5
    - type: cosine_recall@10
      value: 0.8594802694898941
      name: Cosine Recall@10
    - type: cosine_ndcg@10
      value: 0.7422092119290026
      name: Cosine Ndcg@10
    - type: cosine_mrr@10
      value: 0.7048027712849652
      name: Cosine Mrr@10
    - type: cosine_map@100
      value: 0.7096776455711555
      name: Cosine Map@100
  - task:
      type: information-retrieval
      name: Information Retrieval
    dataset:
      name: dim 256
      type: dim_256
    metrics:
    - type: cosine_accuracy@1
      value: 0.6233557908245108
      name: Cosine Accuracy@1
    - type: cosine_accuracy@3
      value: 0.7577799165864614
      name: Cosine Accuracy@3
    - type: cosine_accuracy@5
      value: 0.7985242220083414
      name: Cosine Accuracy@5
    - type: cosine_accuracy@10
      value: 0.8530638434392044
      name: Cosine Accuracy@10
    - type: cosine_precision@1
      value: 0.6233557908245108
      name: Cosine Precision@1
    - type: cosine_precision@3
      value: 0.2525933055288204
      name: Cosine Precision@3
    - type: cosine_precision@5
      value: 0.15970484440166827
      name: Cosine Precision@5
    - type: cosine_precision@10
      value: 0.08530638434392043
      name: Cosine Precision@10
    - type: cosine_recall@1
      value: 0.6233557908245108
      name: Cosine Recall@1
    - type: cosine_recall@3
      value: 0.7577799165864614
      name: Cosine Recall@3
    - type: cosine_recall@5
      value: 0.7985242220083414
      name: Cosine Recall@5
    - type: cosine_recall@10
      value: 0.8530638434392044
      name: Cosine Recall@10
    - type: cosine_ndcg@10
      value: 0.7375795877075221
      name: Cosine Ndcg@10
    - type: cosine_mrr@10
      value: 0.7007484557292056
      name: Cosine Mrr@10
    - type: cosine_map@100
      value: 0.7059391882331173
      name: Cosine Map@100
  - task:
      type: information-retrieval
      name: Information Retrieval
    dataset:
      name: dim 128
      type: dim_128
    metrics:
    - type: cosine_accuracy@1
      value: 0.6047481552775105
      name: Cosine Accuracy@1
    - type: cosine_accuracy@3
      value: 0.7407763875521335
      name: Cosine Accuracy@3
    - type: cosine_accuracy@5
      value: 0.7882579403272377
      name: Cosine Accuracy@5
    - type: cosine_accuracy@10
      value: 0.8456849534809111
      name: Cosine Accuracy@10
    - type: cosine_precision@1
      value: 0.6047481552775105
      name: Cosine Precision@1
    - type: cosine_precision@3
      value: 0.24692546251737782
      name: Cosine Precision@3
    - type: cosine_precision@5
      value: 0.15765158806544755
      name: Cosine Precision@5
    - type: cosine_precision@10
      value: 0.0845684953480911
      name: Cosine Precision@10
    - type: cosine_recall@1
      value: 0.6047481552775105
      name: Cosine Recall@1
    - type: cosine_recall@3
      value: 0.7407763875521335
      name: Cosine Recall@3
    - type: cosine_recall@5
      value: 0.7882579403272377
      name: Cosine Recall@5
    - type: cosine_recall@10
      value: 0.8456849534809111
      name: Cosine Recall@10
    - type: cosine_ndcg@10
      value: 0.723455759813643
      name: Cosine Ndcg@10
    - type: cosine_mrr@10
      value: 0.6846326596085966
      name: Cosine Mrr@10
    - type: cosine_map@100
      value: 0.6898943714041005
      name: Cosine Map@100
  - task:
      type: information-retrieval
      name: Information Retrieval
    dataset:
      name: dim 64
      type: dim_64
    metrics:
    - type: cosine_accuracy@1
      value: 0.5784408084696824
      name: Cosine Accuracy@1
    - type: cosine_accuracy@3
      value: 0.7221687520051331
      name: Cosine Accuracy@3
    - type: cosine_accuracy@5
      value: 0.7702919473853064
      name: Cosine Accuracy@5
    - type: cosine_accuracy@10
      value: 0.823227462303497
      name: Cosine Accuracy@10
    - type: cosine_precision@1
      value: 0.5784408084696824
      name: Cosine Precision@1
    - type: cosine_precision@3
      value: 0.24072291733504436
      name: Cosine Precision@3
    - type: cosine_precision@5
      value: 0.15405838947706124
      name: Cosine Precision@5
    - type: cosine_precision@10
      value: 0.08232274623034969
      name: Cosine Precision@10
    - type: cosine_recall@1
      value: 0.5784408084696824
      name: Cosine Recall@1
    - type: cosine_recall@3
      value: 0.7221687520051331
      name: Cosine Recall@3
    - type: cosine_recall@5
      value: 0.7702919473853064
      name: Cosine Recall@5
    - type: cosine_recall@10
      value: 0.823227462303497
      name: Cosine Recall@10
    - type: cosine_ndcg@10
      value: 0.7004538338453421
      name: Cosine Ndcg@10
    - type: cosine_mrr@10
      value: 0.6611845690045874
      name: Cosine Mrr@10
    - type: cosine_map@100
      value: 0.6669656335749551
      name: Cosine Map@100
---

# RoBERTa Amharic Text Embedding Medium

This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [yosefw/roberta-medium-am-embed](https://huggingface.co/yosefw/roberta-medium-am-embed) on the json dataset. It maps sentences & paragraphs to a 512-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

## Model Details

### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [yosefw/roberta-medium-am-embed](https://huggingface.co/yosefw/roberta-medium-am-embed) <!-- at revision 0817d28818bfed6dc319aa24c31b1a7f6b362ede -->
- **Maximum Sequence Length:** 510 tokens
- **Output Dimensionality:** 512 dimensions
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
    - json
- **Language:** en
- **License:** apache-2.0

### Model Sources

- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)

### Full Model Architecture

```
SentenceTransformer(
  (0): Transformer({'max_seq_length': 510, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 512, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)
```

## Usage

### Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

```bash
pip install -U sentence-transformers
```

Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("rasyosef/roberta-amharic-text-embedding-medium")
# Run inference
sentences = [
  "የተደጋገመው የመሬት መንቀጥቀጥና የእሳተ ገሞራ ምልክት በአፋር ክልል",
  "ከተደጋጋሚ መሬት መንቀጥቀጥ በኋላ አፋር ክልል እሳት ከመሬት ውስጥ ሲፈላ ታይቷል፡፡ ከመሬት ውስጥ እሳትና ጭስ የሚተፋው እንፋሎቱ ዛሬ ማለዳውን 11 ሰዓት ግድም ከከባድ ፍንዳታ በኋላየተስተዋለ መሆኑን የአከባቢው ነዋሪዎች እና ባለስልጣናት ለዶቼ ቬለ ተናግረዋል፡፡ አለት የሚያፈናጥር እሳት ነው የተባለው እንፋሎቱ በክልሉ ጋቢረሱ (ዞን 03) ዱለቻ ወረዳ ሰጋንቶ ቀበሌ መከሰቱን የገለጹት የአከባቢው የአይን እማኞች ከዋናው ፍንዳታ በተጨማሪ በዙሪያው ተጨማሪ ፍንዳታዎች መታየት ቀጥሏል ባይ ናቸው፡፡",
  "ለኢትዮጵያ ብሔራዊ ባንክ ዋጋን የማረጋጋት ቀዳሚ ዓላማ ጋር የተጣጣሙ የገንዘብ ፖሊሲ ምክረ ሀሳቦችን እንዲሰጥ የተቋቋመው የኢትዮጵያ ብሔራዊ ባንክ የገንዘብ ፖሊሲ ኮሚቴ እስካለፈው ህዳር ወር የነበረው እአአ የ2024 የዋጋ ግሽበት በተለይምምግብ ነክ ምርቶች ላይ ከአንድ ዓመት በፊት ከነበው ጋር ሲነጻጸር መረጋጋት ማሳየቱን ጠቁሟል፡፡ ዶይቼ ቬለ ያነጋገራቸው የአዲስ አበባ ነዋሪዎች ግን በዚህ የሚስማሙ አይመስልም፡፡ ከአምና አንጻር ያልጨመረ ነገር የለም ባይ ናቸው፡፡ የኢኮኖሚ  ባለሙያም በሰጡን አስተያየት ጭማሪው በሁሉም ረገድ የተስተዋለ በመሆኑ የመንግስት ወጪን በመቀነስ ግብርናው ላይ አተኩሮ መስራት ምናልባትም የዋጋ መረጋጋቱን ሊያመጣ ይችላል ይላሉ፡፡"
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 512]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```

<!--
### Direct Usage (Transformers)

<details><summary>Click to see the direct usage in Transformers</summary>

</details>
-->

<!--
### Downstream Usage (Sentence Transformers)

You can finetune this model on your own dataset.

<details><summary>Click to expand</summary>

</details>
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

## Evaluation

### Metrics

#### Information Retrieval

* Datasets: `dim_512`, `dim_384`, `dim_256`, `dim_128` and `dim_64`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)

| Metric              | dim_512    | dim_384    | dim_256    | dim_128    | dim_64     |
|:--------------------|:-----------|:-----------|:-----------|:-----------|:-----------|
| cosine_accuracy@1   | 0.6295     | 0.6256     | 0.6234     | 0.6047     | 0.5784     |
| cosine_accuracy@3   | 0.7629     | 0.7652     | 0.7578     | 0.7408     | 0.7222     |
| cosine_accuracy@5   | 0.8056     | 0.8056     | 0.7985     | 0.7883     | 0.7703     |
| cosine_accuracy@10  | 0.8611     | 0.8595     | 0.8531     | 0.8457     | 0.8232     |
| cosine_precision@1  | 0.6295     | 0.6256     | 0.6234     | 0.6047     | 0.5784     |
| cosine_precision@3  | 0.2543     | 0.2551     | 0.2526     | 0.2469     | 0.2407     |
| cosine_precision@5  | 0.1611     | 0.1611     | 0.1597     | 0.1577     | 0.1541     |
| cosine_precision@10 | 0.0861     | 0.0859     | 0.0853     | 0.0846     | 0.0823     |
| cosine_recall@1     | 0.6295     | 0.6256     | 0.6234     | 0.6047     | 0.5784     |
| cosine_recall@3     | 0.7629     | 0.7652     | 0.7578     | 0.7408     | 0.7222     |
| cosine_recall@5     | 0.8056     | 0.8056     | 0.7985     | 0.7883     | 0.7703     |
| cosine_recall@10    | 0.8611     | 0.8595     | 0.8531     | 0.8457     | 0.8232     |
| **cosine_ndcg@10**  | **0.7441** | **0.7422** | **0.7376** | **0.7235** | **0.7005** |
| cosine_mrr@10       | 0.7068     | 0.7048     | 0.7007     | 0.6846     | 0.6612     |
| cosine_map@100      | 0.7115     | 0.7097     | 0.7059     | 0.6899     | 0.667      |

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Dataset

#### json

* Dataset: json
* Size: 28,046 training samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
  |         | anchor                                                                            | positive                                                                             |
  |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                               |
  | details | <ul><li>min: 4 tokens</li><li>mean: 14.56 tokens</li><li>max: 47 tokens</li></ul> | <ul><li>min: 42 tokens</li><li>mean: 204.24 tokens</li><li>max: 510 tokens</li></ul> |
* Samples:
  | anchor                                                                                                   | positive                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                 |
  |:---------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>የዱር እንስሳት ከሰዎች ጋር በሚኖራቸው ቁርኝት ለኮሮናቫይረስ ተጋላጭ እንዳይሆኑ የመከላከል ተግባራትን እያከናወኑ መሆኑን ባለስልጣኑ አስታወቀ፡፡</code> | <code>ባሕርዳር፡ ግንቦት 18/2012 ዓ.ም (አብመድ) የአማራ ክልል የአካባቢ፣ የደንና የዱር እንስሳት ጥበቃና ልማት ባለስልጣን በሚያስተዳድራቸው ብሔራዊ ፓርኮች እና የማኅበረሰብ ጥብቅ ሥፍራዎች ከኮሮናቫይረስ ተጋላጭነት ለመከላከል እየሠራ መሆኑን አስታውቋል፡፡የባለስልጣኑ የኮሙዩኒኬሽን ዳይሬክተር ጋሻው እሸቱ 10 በሚሆኑ ብሔራዊ ፓርኮችና የማኅበረሰብ ጥብቅ ሥፍራዎች የኮሮና ቫይረስን መከላከል በሚቻልባቸው ቅድመ ተግባራት እና ርምጃዎች ላይ መምከራቸውን ተናግረዋል፡፡ የዱር እንስሳት በመንጋ የሚኖሩ፣ እርስ በርሳቸው ተመጋጋቢ፣ ከሰዎች እና ከቤት እንስሳቶች ጋር ሊቀላቀሉ የሚችሉ በመሆናቸው በኮሮናቫይረስ ከተጋለጡ ‘‘የኮሮናቫይረስ ተጋላጭነት በብርቅየ የዱር እንስሳት ብዝኃ ሕይወት ላይ ስጋት መሆን የለበትም’’ ያሉት አቶ ጋሻው በፓርኮቹ ውስጥ ለሚሠሩ የጥበቃ፣ ስካውት እና ለጽሕፈት ቤት ሠራተኞች በዘርፉ ላይ ያተኮረ የኮሮናቫይረስ መከላከያ ትምህርቶችን እና የቁሳቁስ ድጋፎችን ማድረጋቸውን አስታውቀዋል፡፡</code>                                                                                                                                                                                                                                                                                                                                                                                                                                                |
  | <code>የትግራይ ክልል የአየር መሥመር ለአገልግሎት ክፍት ሆነ፡፡</code>                                                        | <code><br>የትግራይ ክልል የአየር መሥመር ለአገልግሎት ክፍት ሆነ፡፡<br>ባሕር ዳር፡ ታኅሣሥ 05/2013 ዓ.ም (አብመድ) በሰሜን ኢትዮጵያ ትግራይ ክልል የህግ ማስከበር ሂደትን ተከትሎ ተዘግቶ የነበረው የአየር ክልል ከዛሬ ታህሣሥ 5/2013 ዓ.ም ከቀኑ 8 ሰዓት ጀምሮ በሰሜን የኢትዮጵያ የአየር ክልል ውስጥ የሚያቋርጡ የአለም አቀፍ እና የሃገር ውስጥ የበረራ መስመሮች ለአገልግሎት ክፍት ሆነዋል፡፡ አገልግሎት መሥጠት የሚችሉ ኤርፖርቶች በረራ ማስተናገድ የሚችሉ መሆኑንም የኢትዮጵያ ሲቪል አቪዬሽን ባለስልጣን ገልጿል::<br></code>                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               |
  | <code>የአውሮፓ ኢንቨስትመንት ባንክ ለመንግሥት 76 ሚሊዮን ዶላር ሊያበድር ነው</code>                                              | <code>በዳዊት እንደሻውየአውሮፓ ኢንቨስትመንት ባንክ ጽሕፈት ቤቱን በአዲስ አበባ ከከፈተ ከሁለት ዓመት በኋላ ትልቅ ነው የተባለለትን የ76 ሚሊዮን ዶላር ብድር ስምምነት ለመፈራረም፣ ኃላፊዎቹን ወደ ኢትዮጵያ ይልካል፡፡ከወር በፊት በኢትዮጵያ መንግሥትና በባንኩ መካከል የተደረገው ይኼ የብድር ስምምነት፣ የኢትዮጵያ ልማት ባንክ በሊዝ ፋይናንሲንግ ለአነስተኛና ለመካከለኛ ኢንተርፕራይዞች ለሚያደርገው እገዛ ይውላል፡፡የአውሮፓ ኢንቨስትመንት ባንክ ምክትል ፕሬዚዳንት ፒም ቫን በሌኮም፣ እንዲሁም ሌሎች ኃላፊዎች ይመጣሉ ተብሎ ይጠበቃል፡፡በዚህም መሠረት የባንኩ ኃላፊዎች ከገንዘብና ኢኮኖሚ ትብብር ሚኒስቴር ጋር አድርገውት ከነበረው ስምምነት የሚቀጥልና ተመሳሳይ የሆነ ስምምነት፣ ከኢትዮጵያ ልማት ባንክ ጋር እንደሚያደርጉ ይጠበቃል፡፡እ.ኤ.አ. እስከ 2022 ድረስ የሚቀጥለው አነስተኛና መካከለኛ ኢንተርፕራይዞችን የማገዝ ፕሮጀክት 276 ሚሊዮን ዶላር ወጪ የሚያስወጣ ሲሆን፣ ባለፈው ዓመት የዓለም ባንክ ወደ 200 ሚሊዮን ዶላር ብድር ሰጥቷል፡፡በአውሮፓ ኢንቨስትመንት ባንክ የሚሰጠው ብድር፣ የኢትዮጵያ ልማት ባንክን የሊዝ ፋይናንሲንግ ሥራ እንደሚያግዝ ጉዳዩ የሚመለከታቸው የልማት ባንክ ኃላፊዎች ለሪፖርተር ተናግረዋል፡፡ ‹‹በተጨማሪም የውጭ ምንዛሪ እጥረቱን ለማቃለል ያግዛል፤›› ሲሉ ኃላፊው ገልጸዋል፡፡በልማት ባንክ በኩል የሚደረገው እገዛ በሁለት መስኮቶች የሚወጣ ሲሆን፣ አንደኛው በቀጥታ በባንክ እንደ ሊዝ ፋይናንሲንግ ሲሰጥ ሌላው ደግሞ እንደ መሥሪያ ካፒታል ልማት ባንክ ለመረጣቸው 12 ባንኮችና ዘጠኝ ማይክሮ ፋይናንሶች ይሰጣል፡፡የአውሮፓ ኢንቨስትመንት ባንክ በኢትዮጵያ መንቀሳቀስ ከጀመረ ከ1980ዎቹ ጀምሮ ወደ ግማሽ ቢሊዮን ዶላር የሚጠጋ ለኃይል፣ ለኮሙዩኒኬሽንና ለግሉ ዘርፍ ኢ...</code> |
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
  ```json
  {
      "loss": "MultipleNegativesRankingLoss",
      "matryoshka_dims": [
          512,
          384,
          256,
          128,
          64
      ],
      "matryoshka_weights": [
          1,
          1,
          1,
          1,
          1
      ],
      "n_dims_per_step": -1
  }
  ```

### Training Hyperparameters
#### Non-Default Hyperparameters

- `eval_strategy`: epoch
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `gradient_accumulation_steps`: 2
- `num_train_epochs`: 4
- `lr_scheduler_type`: cosine
- `warmup_ratio`: 0.1
- `fp16`: True
- `load_best_model_at_end`: True
- `optim`: adamw_torch_fused
- `batch_sampler`: no_duplicates

#### All Hyperparameters
<details><summary>Click to expand</summary>

- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: epoch
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 2
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 4
- `max_steps`: -1
- `lr_scheduler_type`: cosine
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`: 
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional

</details>

### Training Logs
| Epoch      | Step    | Training Loss | dim_512_cosine_ndcg@10 | dim_384_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | dim_128_cosine_ndcg@10 | dim_64_cosine_ndcg@10 |
|:----------:|:-------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|
| 0.0456     | 10      | 11.8849       | -                      | -                      | -                      | -                      | -                     |
| 0.0911     | 20      | 7.1441        | -                      | -                      | -                      | -                      | -                     |
| 0.1367     | 30      | 3.2143        | -                      | -                      | -                      | -                      | -                     |
| 0.1822     | 40      | 1.9274        | -                      | -                      | -                      | -                      | -                     |
| 0.2278     | 50      | 1.6303        | -                      | -                      | -                      | -                      | -                     |
| 0.2733     | 60      | 1.4033        | -                      | -                      | -                      | -                      | -                     |
| 0.3189     | 70      | 1.2537        | -                      | -                      | -                      | -                      | -                     |
| 0.3645     | 80      | 1.1911        | -                      | -                      | -                      | -                      | -                     |
| 0.4100     | 90      | 1.109         | -                      | -                      | -                      | -                      | -                     |
| 0.4556     | 100     | 1.0423        | -                      | -                      | -                      | -                      | -                     |
| 0.5011     | 110     | 0.9095        | -                      | -                      | -                      | -                      | -                     |
| 0.5467     | 120     | 0.9452        | -                      | -                      | -                      | -                      | -                     |
| 0.5923     | 130     | 0.8793        | -                      | -                      | -                      | -                      | -                     |
| 0.6378     | 140     | 0.9144        | -                      | -                      | -                      | -                      | -                     |
| 0.6834     | 150     | 0.7442        | -                      | -                      | -                      | -                      | -                     |
| 0.7289     | 160     | 0.8695        | -                      | -                      | -                      | -                      | -                     |
| 0.7745     | 170     | 0.7871        | -                      | -                      | -                      | -                      | -                     |
| 0.8200     | 180     | 0.8961        | -                      | -                      | -                      | -                      | -                     |
| 0.8656     | 190     | 0.7394        | -                      | -                      | -                      | -                      | -                     |
| 0.9112     | 200     | 0.9141        | -                      | -                      | -                      | -                      | -                     |
| 0.9567     | 210     | 0.7696        | -                      | -                      | -                      | -                      | -                     |
| 1.0        | 220     | 0.7702        | 0.7003                 | 0.7011                 | 0.6957                 | 0.6746                 | 0.6420                |
| 1.0456     | 230     | 0.7403        | -                      | -                      | -                      | -                      | -                     |
| 1.0911     | 240     | 0.7455        | -                      | -                      | -                      | -                      | -                     |
| 1.1367     | 250     | 0.6595        | -                      | -                      | -                      | -                      | -                     |
| 1.1822     | 260     | 0.4895        | -                      | -                      | -                      | -                      | -                     |
| 1.2278     | 270     | 0.4027        | -                      | -                      | -                      | -                      | -                     |
| 1.2733     | 280     | 0.4019        | -                      | -                      | -                      | -                      | -                     |
| 1.3189     | 290     | 0.4096        | -                      | -                      | -                      | -                      | -                     |
| 1.3645     | 300     | 0.3425        | -                      | -                      | -                      | -                      | -                     |
| 1.4100     | 310     | 0.3226        | -                      | -                      | -                      | -                      | -                     |
| 1.4556     | 320     | 0.3169        | -                      | -                      | -                      | -                      | -                     |
| 1.5011     | 330     | 0.2479        | -                      | -                      | -                      | -                      | -                     |
| 1.5467     | 340     | 0.2753        | -                      | -                      | -                      | -                      | -                     |
| 1.5923     | 350     | 0.2442        | -                      | -                      | -                      | -                      | -                     |
| 1.6378     | 360     | 0.229         | -                      | -                      | -                      | -                      | -                     |
| 1.6834     | 370     | 0.2123        | -                      | -                      | -                      | -                      | -                     |
| 1.7289     | 380     | 0.2301        | -                      | -                      | -                      | -                      | -                     |
| 1.7745     | 390     | 0.2151        | -                      | -                      | -                      | -                      | -                     |
| 1.8200     | 400     | 0.2333        | -                      | -                      | -                      | -                      | -                     |
| 1.8656     | 410     | 0.2255        | -                      | -                      | -                      | -                      | -                     |
| 1.9112     | 420     | 0.2443        | -                      | -                      | -                      | -                      | -                     |
| 1.9567     | 430     | 0.1856        | -                      | -                      | -                      | -                      | -                     |
| 2.0        | 440     | 0.2232        | 0.7299                 | 0.7293                 | 0.7250                 | 0.7070                 | 0.6824                |
| 2.0456     | 450     | 0.217         | -                      | -                      | -                      | -                      | -                     |
| 2.0911     | 460     | 0.2246        | -                      | -                      | -                      | -                      | -                     |
| 2.1367     | 470     | 0.1401        | -                      | -                      | -                      | -                      | -                     |
| 2.1822     | 480     | 0.1482        | -                      | -                      | -                      | -                      | -                     |
| 2.2278     | 490     | 0.1247        | -                      | -                      | -                      | -                      | -                     |
| 2.2733     | 500     | 0.1184        | -                      | -                      | -                      | -                      | -                     |
| 2.3189     | 510     | 0.1165        | -                      | -                      | -                      | -                      | -                     |
| 2.3645     | 520     | 0.1035        | -                      | -                      | -                      | -                      | -                     |
| 2.4100     | 530     | 0.1019        | -                      | -                      | -                      | -                      | -                     |
| 2.4556     | 540     | 0.0866        | -                      | -                      | -                      | -                      | -                     |
| 2.5011     | 550     | 0.0761        | -                      | -                      | -                      | -                      | -                     |
| 2.5467     | 560     | 0.1086        | -                      | -                      | -                      | -                      | -                     |
| 2.5923     | 570     | 0.0787        | -                      | -                      | -                      | -                      | -                     |
| 2.6378     | 580     | 0.0836        | -                      | -                      | -                      | -                      | -                     |
| 2.6834     | 590     | 0.0757        | -                      | -                      | -                      | -                      | -                     |
| 2.7289     | 600     | 0.1006        | -                      | -                      | -                      | -                      | -                     |
| 2.7745     | 610     | 0.0742        | -                      | -                      | -                      | -                      | -                     |
| 2.8200     | 620     | 0.0853        | -                      | -                      | -                      | -                      | -                     |
| 2.8656     | 630     | 0.0848        | -                      | -                      | -                      | -                      | -                     |
| 2.9112     | 640     | 0.0891        | -                      | -                      | -                      | -                      | -                     |
| 2.9567     | 650     | 0.0789        | -                      | -                      | -                      | -                      | -                     |
| 3.0        | 660     | 0.0889        | 0.7411                 | 0.7401                 | 0.7356                 | 0.7198                 | 0.6940                |
| 3.0456     | 670     | 0.098         | -                      | -                      | -                      | -                      | -                     |
| 3.0911     | 680     | 0.1058        | -                      | -                      | -                      | -                      | -                     |
| 3.1367     | 690     | 0.0571        | -                      | -                      | -                      | -                      | -                     |
| 3.1822     | 700     | 0.0565        | -                      | -                      | -                      | -                      | -                     |
| 3.2278     | 710     | 0.0551        | -                      | -                      | -                      | -                      | -                     |
| 3.2733     | 720     | 0.0504        | -                      | -                      | -                      | -                      | -                     |
| 3.3189     | 730     | 0.0622        | -                      | -                      | -                      | -                      | -                     |
| 3.3645     | 740     | 0.0591        | -                      | -                      | -                      | -                      | -                     |
| 3.4100     | 750     | 0.0564        | -                      | -                      | -                      | -                      | -                     |
| 3.4556     | 760     | 0.0533        | -                      | -                      | -                      | -                      | -                     |
| 3.5011     | 770     | 0.0446        | -                      | -                      | -                      | -                      | -                     |
| 3.5467     | 780     | 0.0621        | -                      | -                      | -                      | -                      | -                     |
| 3.5923     | 790     | 0.0407        | -                      | -                      | -                      | -                      | -                     |
| 3.6378     | 800     | 0.0458        | -                      | -                      | -                      | -                      | -                     |
| 3.6834     | 810     | 0.0455        | -                      | -                      | -                      | -                      | -                     |
| 3.7289     | 820     | 0.0643        | -                      | -                      | -                      | -                      | -                     |
| 3.7745     | 830     | 0.0471        | -                      | -                      | -                      | -                      | -                     |
| 3.8200     | 840     | 0.0523        | -                      | -                      | -                      | -                      | -                     |
| 3.8656     | 850     | 0.0509        | -                      | -                      | -                      | -                      | -                     |
| 3.9112     | 860     | 0.0549        | -                      | -                      | -                      | -                      | -                     |
| 3.9567     | 870     | 0.0572        | -                      | -                      | -                      | -                      | -                     |
| **3.9841** | **876** | **-**         | **0.7441**             | **0.7422**             | **0.7376**             | **0.7235**             | **0.7005**            |

* The bold row denotes the saved checkpoint.

### Framework Versions
- Python: 3.10.12
- Sentence Transformers: 3.3.1
- Transformers: 4.47.1
- PyTorch: 2.5.1+cu121
- Accelerate: 1.2.1
- Datasets: 3.2.0
- Tokenizers: 0.21.0

## Citation

### BibTeX

#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
```

#### MatryoshkaLoss
```bibtex
@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}
```

#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->