A collection of inspiring lists, manuals, cheatsheets, blogs, hacks, one-liners, cli/web tools, and more.
📚 Github
@Machine_learn
📚 Github
@Machine_learn
با عرض سلام
می خواهیم مقاله ی جدیدی را تحت عنوان زیر شروع کنیم:
Comparative survey on Transfer Learning for multi-modal wound image classification
مقالات قبلی که در این رابطه نوشتیم به ترتیب زیر می باشند:
تیم 1: [1]چاپ شده در Expert system with application
تیم 2:[2] سابمیت شده در Scientific report
تیم 3:[3] سابیمت شده در IEEE transaction
نفرات 2 تا 5 این مقاله خالی می باشند. این نفرات علاوه بر مرور مقالات و تحلیل نتایج هزینه سرور را نیز متقبل می شوند.
[1] Mousa, Ramin, et al. "Multi-modal wound classification using wound image and location by Swin Transformer and Transformer." Expert Systems with Applications (2025): 127077.
[2] Mousa, Ramin, et al. "Integrating Vision and Location with Transformers: A Multimodal Deep Learning Framework for Medical Wound Analysis." arXiv preprint arXiv:2504.10452 (2025).
[3] Mousa, Ramin, Ehsan Matbooe, and Hakimeh Khojasteh. "Multi-Modal Wound Classification Using Wound Image and Location by Xception and Gaussian Mixture Recurrent Neural Network (GMRNN)." (2025
هزینه نفرات به ترتيب
2:400$
3:300$
4:250$
5:200$
می باشد.
ژونال مد نظر
Scientific Reprot (Nature)
@Raminmousa
@Machine_learn
@Paper4money
می خواهیم مقاله ی جدیدی را تحت عنوان زیر شروع کنیم:
Comparative survey on Transfer Learning for multi-modal wound image classification
مقالات قبلی که در این رابطه نوشتیم به ترتیب زیر می باشند:
تیم 1: [1]چاپ شده در Expert system with application
تیم 2:[2] سابمیت شده در Scientific report
تیم 3:[3] سابیمت شده در IEEE transaction
نفرات 2 تا 5 این مقاله خالی می باشند. این نفرات علاوه بر مرور مقالات و تحلیل نتایج هزینه سرور را نیز متقبل می شوند.
[1] Mousa, Ramin, et al. "Multi-modal wound classification using wound image and location by Swin Transformer and Transformer." Expert Systems with Applications (2025): 127077.
[2] Mousa, Ramin, et al. "Integrating Vision and Location with Transformers: A Multimodal Deep Learning Framework for Medical Wound Analysis." arXiv preprint arXiv:2504.10452 (2025).
[3] Mousa, Ramin, Ehsan Matbooe, and Hakimeh Khojasteh. "Multi-Modal Wound Classification Using Wound Image and Location by Xception and Gaussian Mixture Recurrent Neural Network (GMRNN)." (2025
هزینه نفرات به ترتيب
2:400$
3:300$
4:250$
5:200$
می باشد.
ژونال مد نظر
Scientific Reprot (Nature)
@Raminmousa
@Machine_learn
@Paper4money
Machine learning books and papers pinned «با عرض سلام می خواهیم مقاله ی جدیدی را تحت عنوان زیر شروع کنیم: Comparative survey on Transfer Learning for multi-modal wound image classification مقالات قبلی که در این رابطه نوشتیم به ترتیب زیر می باشند: تیم 1: [1]چاپ شده در Expert system with application…»
Forwarded from Github LLMs
Signatures of unconventional superconductivity near reentrant and fractional quantum anomalous Hall insulators
📚 Paper
@Machine_learn
📚 Paper
@Machine_learn
BioPars: Persian biomedical data
Model: BioPars
Dataset: ParsMed
Benchmark: BioParsQa
Next week submit
@Machine_learn
Model: BioPars
Dataset: ParsMed
Benchmark: BioParsQa
Next week submit
@Machine_learn
هدف اين كانال حل مشكل سايت زني به مقالات. از طرفي كساني كه نيازمند هزينه سايت هستن نيز مي تونن با سايت زدن به هر مقاله ي اين كانال بخشي از هزينه رو دريافت كنن.
https://www.tg-me.com/papercite
https://www.tg-me.com/papercite
Telegram
Paper cite
ارسال مقاله جهت سايت
@Raminmousa
------
هدف اين كانال حل مشكل سايت زني به مقالات. از طرفي كساني كه نيازمند هزينه سايت هستن نيز مي تونن با سايت زدن به هر مقاله ي اين كانال بخشي از هزينه رو دريافت كنن.
@Raminmousa
------
هدف اين كانال حل مشكل سايت زني به مقالات. از طرفي كساني كه نيازمند هزينه سايت هستن نيز مي تونن با سايت زدن به هر مقاله ي اين كانال بخشي از هزينه رو دريافت كنن.
This media is not supported in your browser
VIEW IN TELEGRAM
Crystal Generation with Space Group Informed Transformer
🖥 Github: https://github.com/deepmodeling/crystalformer
📕 Paper: https://arxiv.org/abs/2504.02367v1
🔗 Dataset: https://paperswithcode.com/dataset/alex-20
@Machine_learn
🖥 Github: https://github.com/deepmodeling/crystalformer
📕 Paper: https://arxiv.org/abs/2504.02367v1
🔗 Dataset: https://paperswithcode.com/dataset/alex-20
@Machine_learn
4 advanced attention mechanisms you should know:
• Slim attention — 8× less memory, 5× faster generation by storing only K from KV pairs and recomputing V.
• XAttention — 13.5× speedup on long sequences via "looking" at the sum of values along diagonal lines in the attention matrix.
• Kolmogorov-Arnold Attention, KArAt — Adaptable attention with learnable activation functions using KANs instead of softmax.
• Multi-token attention (MTA) — Lets the model consider groups of nearby words together for smarter long-context handling.
Read the overview of them in our free article on https://huggingface.co/blog/Kseniase/attentions
@Machine_learn
• Slim attention — 8× less memory, 5× faster generation by storing only K from KV pairs and recomputing V.
• XAttention — 13.5× speedup on long sequences via "looking" at the sum of values along diagonal lines in the attention matrix.
• Kolmogorov-Arnold Attention, KArAt — Adaptable attention with learnable activation functions using KANs instead of softmax.
• Multi-token attention (MTA) — Lets the model consider groups of nearby words together for smarter long-context handling.
Read the overview of them in our free article on https://huggingface.co/blog/Kseniase/attentions
@Machine_learn
Forwarded from Papers
با عرض سلام برای یکی از مقالاتمون نیازمند نفر اول داریم که co-author مقاله هم باشه.
مجله ی ارسالی scientific report natue
https://www.nature.com/srep/
می باشد.
شرایط واگذاری رو در صورت نیاز می تونین با ایدی بنده ست کنین.
@Raminmousa
@Machine_learn
@Paper4money
مجله ی ارسالی scientific report natue
https://www.nature.com/srep/
می باشد.
شرایط واگذاری رو در صورت نیاز می تونین با ایدی بنده ست کنین.
@Raminmousa
@Machine_learn
@Paper4money
Nature
Scientific Reports
Scientific Reports publishes original research in all areas of the natural and clinical sciences. We believe that if your research is scientifically valid and ...