This media is not supported in your browser
VIEW IN TELEGRAM
estimating body and hand motion from a pair of glasses 🤓
website: http://egoallo.github.io
code: http://github.com/brentyi/egoallo
@Machine_learn
website: http://egoallo.github.io
code: http://github.com/brentyi/egoallo
@Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM
# Clone repo
git clone https://github.com/Zyphra/transformers_zamba2.git
cd transformers_zamba2
# Install the repository & accelerate:
pip install -e .
pip install accelerate
# Inference:
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tokenizer = AutoTokenizer.from_pretrained("Zyphra/Zamba2-2.7B-instruct")
model = AutoModelForCausalLM.from_pretrained("Zyphra/Zamba2-2.7B-instruct", device_map="cuda", torch_dtype=torch.bfloat16)
user_turn_1 = "user_prompt1."
assistant_turn_1 = "assistant_prompt."
user_turn_2 = "user_prompt2."
sample = [{'role': 'user', 'content': user_turn_1}, {'role': 'assistant', 'content': assistant_turn_1}, {'role': 'user', 'content': user_turn_2}]
chat_sample = tokenizer.apply_chat_template(sample, tokenize=False)
input_ids = tokenizer(chat_sample, return_tensors='pt', add_special_tokens=False).to("cuda")
outputs = model.generate(**input_ids, max_new_tokens=150, return_dict_in_generate=False, output_scores=False, use_cache=True, num_beams=1, do_sample=False)
print((tokenizer.decode(outputs[0])))
@Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM
📄 Advances of Artificial Intelligence in Anti-Cancer Drug Design: A Review of the Past Decade
📎 Study the paper
@Machine_learn
📎 Study the paper
@Machine_learn
Forwarded from Papers
يكي از بهترين موضوعات در طبقه بندي متن؛ تحليل احساس چند دامنه اي مي باشد. براي اين منظور مدلي تحت عنوان
Title: TRCAPS: The Transformer-based Capsule Approach for Persian Multi-
Domain Sentiment Analysis
طراحي كرديم كه نتايج خيلي بهتري نسبت به IndCaps داشته است.
دوستاني كه نياز به مقاله تو حوزه NLP دارن مي تونن تا اخر اين هفته داخل اين مقاله شركت كنند.
ژورنال هدف Array elsevier مي باشد.
شركت كنندگان داخل اين مقاله نياز به انجام تسك هايي نيز مي باشند.
@Raminmousa
@Machine_learn
@Paper4money
Title: TRCAPS: The Transformer-based Capsule Approach for Persian Multi-
Domain Sentiment Analysis
طراحي كرديم كه نتايج خيلي بهتري نسبت به IndCaps داشته است.
دوستاني كه نياز به مقاله تو حوزه NLP دارن مي تونن تا اخر اين هفته داخل اين مقاله شركت كنند.
ژورنال هدف Array elsevier مي باشد.
شركت كنندگان داخل اين مقاله نياز به انجام تسك هايي نيز مي باشند.
@Raminmousa
@Machine_learn
@Paper4money
Telegram
Machine learning books and papers
INDCAPS: The IndRNN Capsule Approach for Persian Multi-
Domain Sentiment Analysis
یکی از بحث های که این روزها خیلی ترند هستش بحث مربوط به طبقه بندی احساسات چندجمله ای می باشد. در این مقاله ما یک مجموعه داده که روی داده های دیجی کالا می باشند رو جمع اوری…
Domain Sentiment Analysis
یکی از بحث های که این روزها خیلی ترند هستش بحث مربوط به طبقه بندی احساسات چندجمله ای می باشد. در این مقاله ما یک مجموعه داده که روی داده های دیجی کالا می باشند رو جمع اوری…
Machine learning books and papers
يكي از بهترين موضوعات در طبقه بندي متن؛ تحليل احساس چند دامنه اي مي باشد. براي اين منظور مدلي تحت عنوان Title: TRCAPS: The Transformer-based Capsule Approach for Persian Multi- Domain Sentiment Analysis طراحي كرديم كه نتايج خيلي بهتري نسبت به IndCaps داشته…
فقط نفر دوم از این مقاله مونده...!
LLM Engineer's Handbook: Master the art of engineering Large Language Models from concept to production.
🖥 Github
@Machine_learn
@Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Papers
private link:
https://www.tg-me.com/+SP9l58Ta_zZmYmY0
https://www.tg-me.com/+SP9l58Ta_zZmYmY0
This media is not supported in your browser
VIEW IN TELEGRAM
@Machine_learn
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Github LLMs
В семействе 2 модели:
# Clone repo
git clone https://github.com/Zyphra/transformers_zamba2.git
cd transformers_zamba2
# Install the repository & accelerate:
pip install -e .
pip install accelerate
# Inference:
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tokenizer = AutoTokenizer.from_pretrained("Zyphra/Zamba2-2.7B-instruct")
model = AutoModelForCausalLM.from_pretrained("Zyphra/Zamba2-2.7B-instruct", device_map="cuda", torch_dtype=torch.bfloat16)
user_turn_1 = "user_prompt1."
assistant_turn_1 = "assistant_prompt."
user_turn_2 = "user_prompt2."
sample = [{'role': 'user', 'content': user_turn_1}, {'role': 'assistant', 'content': assistant_turn_1}, {'role': 'user', 'content': user_turn_2}]
chat_sample = tokenizer.apply_chat_template(sample, tokenize=False)
input_ids = tokenizer(chat_sample, return_tensors='pt', add_special_tokens=False).to("cuda")
outputs = model.generate(**input_ids, max_new_tokens=150, return_dict_in_generate=False, output_scores=False, use_cache=True, num_beams=1, do_sample=False)
print((tokenizer.decode(outputs[0])))
https://www.tg-me.com/deep_learning_proj
Please open Telegram to view this post
VIEW IN TELEGRAM