- A language model trained on AozoraBunko.
- Datasource: https://huggingface.co/datasets/globis-university/aozorabunko-clean
- 21.693217 M parameters at the moment.
- 現時点で21,693,217個のパラメーターです。ちっちゃなモデルではありますが、侮らないでね。もしかして次の芥川賞を取るかもしれんぞ!
- See
\example_scripts
for example scripts of this model. - See
\example_text
for example text generated from this model.
- このモデルの例題スクリプトは
\example_scripts
にあります。 - このモデルから生成された例文は
\example_text
にあります。
- As I am but a puny university student, I do not have access to big GPU.
- As such, let's see if we can use transfer learning from a LLM for English!
- Languages, even though they may look and sound different, all share some inner structure.
- As such, perhaps we can get good results from transfer learning?
- 一文なしの大学生の私には、数多くの高性能なGPUは周りに転がっていません。
- そのため、英語のLLMからの転移学習を使用できるかどうかを見てみましょう!
- 言語は見た目や音が異なるかもしれませんが、ある程度の内部構造を共有しているはずです。
- なので、転移学習から良い結果を得ることができるかもしれません。
- This code is heavily inspired from karpathy's YouTube series. The guy is a legend. And handsome!
- このコードは、karpathy氏のYouTubeシリーズから大いにインスピレーションを受けました。神。