Please open Telegram to view this post
VIEW IN TELEGRAM
با عرض سلام خيلي از دوستان در رابطه با طراحي صفر تا صد پروژه هاي ديپ از بنده سوال پرسيدن داخل پك زير ٣٦ پروژه رو با جزئيات شرح دادم:
1-Deep Learning Basic
-01_Introduction
--01_How_TensorFlow_Works
2-Classification apparel
-Classification apparel double capsule
-Classification apparel double cnn
3-ALZHEIMERS USING CNN(ResNet)
4-Fake News (Covid-19 dataset)
-Multi-channel
-3DCNN model
-Base line+ Char CNN
-Fake News Covid CapsuleNet
5-3DCNN Fake News
6-recommender systems
-GRU+LSTM MovieLens
7-Multi-Domain Sentiment Analysis
-Dranziera CapsuleNet
-Dranziera CNN Multi-channel
-Dranziera LSTM
8-Persian Multi-Domain SA
-Bi-GRU Capsule Net
-Multi-CNN
9-Recommendation system
-Factorization Recommender, Ranking Factorization Recommender, Item Similarity Recommender (turicreate)
-SVD, SVD++, NMF, Slope One, k-NN, Centered k-NN, k-NN Baseline, Co-Clustering(surprise)
10-NihX-Ray
-optimized CNN on FullDataset Nih-Xray
-MobileNet
-Transfer learning
-Capsule Network on FullDataset Nih-Xray
دوستاني كه نياز به اين پروژه ها دارن ميتونن با بنده در ارتباط باشن.
@Raminmousa
@Machine_learn
1-Deep Learning Basic
-01_Introduction
--01_How_TensorFlow_Works
2-Classification apparel
-Classification apparel double capsule
-Classification apparel double cnn
3-ALZHEIMERS USING CNN(ResNet)
4-Fake News (Covid-19 dataset)
-Multi-channel
-3DCNN model
-Base line+ Char CNN
-Fake News Covid CapsuleNet
5-3DCNN Fake News
6-recommender systems
-GRU+LSTM MovieLens
7-Multi-Domain Sentiment Analysis
-Dranziera CapsuleNet
-Dranziera CNN Multi-channel
-Dranziera LSTM
8-Persian Multi-Domain SA
-Bi-GRU Capsule Net
-Multi-CNN
9-Recommendation system
-Factorization Recommender, Ranking Factorization Recommender, Item Similarity Recommender (turicreate)
-SVD, SVD++, NMF, Slope One, k-NN, Centered k-NN, k-NN Baseline, Co-Clustering(surprise)
10-NihX-Ray
-optimized CNN on FullDataset Nih-Xray
-MobileNet
-Transfer learning
-Capsule Network on FullDataset Nih-Xray
دوستاني كه نياز به اين پروژه ها دارن ميتونن با بنده در ارتباط باشن.
@Raminmousa
@Machine_learn
Efficiently Democratizing Medical LLMs for 50 Languages via a Mixture of Language Family Experts
💻 Github: https://github.com/freedomintelligence/apollomoe
🔖 Paper: https://arxiv.org/abs/2410.10626v1
🤗 Dataset: https://paperswithcode.com/dataset/mmlu
✅ @Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM
Thesis2 2.pdf
5.5 MB
Thesis: Yolo object detection
این پروژه سال ۲۰۲۰ با یکی از دوستان انجام دادیم که هدف تشخیص وزن پل با استفاده از Yolo بود. جزئیات مدل یولو رو داخل این بررسی کردیم . برای دوستانی که می خوان بیشتر این مدل رو بررسی کنن می تونه مفید باشه.
@Machine_learn
این پروژه سال ۲۰۲۰ با یکی از دوستان انجام دادیم که هدف تشخیص وزن پل با استفاده از Yolo بود. جزئیات مدل یولو رو داخل این بررسی کردیم . برای دوستانی که می خوان بیشتر این مدل رو بررسی کنن می تونه مفید باشه.
@Machine_learn
Machine learning books and papers
با عرض سلام خيلي از دوستان در رابطه با طراحي صفر تا صد پروژه هاي ديپ از بنده سوال پرسيدن داخل پك زير ٣٦ پروژه رو با جزئيات شرح دادم: 1-Deep Learning Basic -01_Introduction --01_How_TensorFlow_Works 2-Classification apparel -Classification apparel double…
پروژه های بیشتر شبیه این ریپورت داخل این پک قرار داره. دوستانی که نیاز دارن می تونن به ایدی بنده مراجعه کنن.
@Raminmousa
@Raminmousa
📃Network Modeling and Control of Dynamic Disease Pathways, Review and Perspectives
📎 Study the paper
@Machine_learn
📎 Study the paper
@Machine_learn
New pipeline for selecting high-quality long-take videos and generating temporally dense captions.
Dataset with four key features essential for training long video generation models: (1) long videos covering at least 10 seconds, (2) long-take videos without cuts, (3) large motion and diverse contents, and (4) temporally dense captions.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Github LLMs
🔥 NVIDIA silently release a Llama 3.1 70B fine-tune that outperforms
GPT-4o and Claude Sonnet 3.5
Llama 3.1 Nemotron 70B Instruct a further RLHFed model on
huggingface
https://huggingface.co/collections/nvidia/llama-31-nemotron-70b-670e93cd366feea16abc13d8
✅ https://www.tg-me.com/deep_learning_proj
GPT-4o and Claude Sonnet 3.5
Llama 3.1 Nemotron 70B Instruct a further RLHFed model on
huggingface
https://huggingface.co/collections/nvidia/llama-31-nemotron-70b-670e93cd366feea16abc13d8
Please open Telegram to view this post
VIEW IN TELEGRAM
Prompt Engineering Techniques: Comprehensive Repository for Development and Implementation 🖋️
📓 Github
@Machine_learn
📓 Github
@Machine_learn
This media is not supported in your browser
VIEW IN TELEGRAM
estimating body and hand motion from a pair of glasses 🤓
website: http://egoallo.github.io
code: http://github.com/brentyi/egoallo
@Machine_learn
website: http://egoallo.github.io
code: http://github.com/brentyi/egoallo
@Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM
# Clone repo
git clone https://github.com/Zyphra/transformers_zamba2.git
cd transformers_zamba2
# Install the repository & accelerate:
pip install -e .
pip install accelerate
# Inference:
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tokenizer = AutoTokenizer.from_pretrained("Zyphra/Zamba2-2.7B-instruct")
model = AutoModelForCausalLM.from_pretrained("Zyphra/Zamba2-2.7B-instruct", device_map="cuda", torch_dtype=torch.bfloat16)
user_turn_1 = "user_prompt1."
assistant_turn_1 = "assistant_prompt."
user_turn_2 = "user_prompt2."
sample = [{'role': 'user', 'content': user_turn_1}, {'role': 'assistant', 'content': assistant_turn_1}, {'role': 'user', 'content': user_turn_2}]
chat_sample = tokenizer.apply_chat_template(sample, tokenize=False)
input_ids = tokenizer(chat_sample, return_tensors='pt', add_special_tokens=False).to("cuda")
outputs = model.generate(**input_ids, max_new_tokens=150, return_dict_in_generate=False, output_scores=False, use_cache=True, num_beams=1, do_sample=False)
print((tokenizer.decode(outputs[0])))
@Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM
📄 Advances of Artificial Intelligence in Anti-Cancer Drug Design: A Review of the Past Decade
📎 Study the paper
@Machine_learn
📎 Study the paper
@Machine_learn
Forwarded from Papers
يكي از بهترين موضوعات در طبقه بندي متن؛ تحليل احساس چند دامنه اي مي باشد. براي اين منظور مدلي تحت عنوان
Title: TRCAPS: The Transformer-based Capsule Approach for Persian Multi-
Domain Sentiment Analysis
طراحي كرديم كه نتايج خيلي بهتري نسبت به IndCaps داشته است.
دوستاني كه نياز به مقاله تو حوزه NLP دارن مي تونن تا اخر اين هفته داخل اين مقاله شركت كنند.
ژورنال هدف Array elsevier مي باشد.
شركت كنندگان داخل اين مقاله نياز به انجام تسك هايي نيز مي باشند.
@Raminmousa
@Machine_learn
@Paper4money
Title: TRCAPS: The Transformer-based Capsule Approach for Persian Multi-
Domain Sentiment Analysis
طراحي كرديم كه نتايج خيلي بهتري نسبت به IndCaps داشته است.
دوستاني كه نياز به مقاله تو حوزه NLP دارن مي تونن تا اخر اين هفته داخل اين مقاله شركت كنند.
ژورنال هدف Array elsevier مي باشد.
شركت كنندگان داخل اين مقاله نياز به انجام تسك هايي نيز مي باشند.
@Raminmousa
@Machine_learn
@Paper4money
Telegram
Machine learning books and papers
INDCAPS: The IndRNN Capsule Approach for Persian Multi-
Domain Sentiment Analysis
یکی از بحث های که این روزها خیلی ترند هستش بحث مربوط به طبقه بندی احساسات چندجمله ای می باشد. در این مقاله ما یک مجموعه داده که روی داده های دیجی کالا می باشند رو جمع اوری…
Domain Sentiment Analysis
یکی از بحث های که این روزها خیلی ترند هستش بحث مربوط به طبقه بندی احساسات چندجمله ای می باشد. در این مقاله ما یک مجموعه داده که روی داده های دیجی کالا می باشند رو جمع اوری…
Machine learning books and papers
يكي از بهترين موضوعات در طبقه بندي متن؛ تحليل احساس چند دامنه اي مي باشد. براي اين منظور مدلي تحت عنوان Title: TRCAPS: The Transformer-based Capsule Approach for Persian Multi- Domain Sentiment Analysis طراحي كرديم كه نتايج خيلي بهتري نسبت به IndCaps داشته…
فقط نفر دوم از این مقاله مونده...!
LLM Engineer's Handbook: Master the art of engineering Large Language Models from concept to production.
🖥 Github
@Machine_learn
@Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM