Linux - 関連ブログ

LogLog Games

Disclaimer: This post is a very long collection of thoughts and problems I've had over the years, and also addresses some of the arguments I've been repeatedly told. This post expresses my opinion the has been formed over using Rust for gamedev for many thousands of hours over many years, and mul...

株式会社リクルート エンジニアコース新人研修の内容を公開します!(2023年度版) | Recruit Tech Blog

こんにちは! 2023年度エンジニア新卒の、吉田です。 株式会社リクルート 新卒エンジニアコースでは、部署への配属前に、BootCampと呼ばれる新人研修を行っています。 本日は2023年度の研修の内容を、実際に受講した新卒の立場から紹介させていただきます。 研修の内容については毎年反響をいただいていますが、今年度も...

Linux 6.8やGNOME 46採用の「Ubuntu 24.04 LTS」提供開始

Ubuntu 24.04 LTS “Noble Numbat”のリリース | gihyo.jp

Ubuntu 24.04 LTS “Noble Numbat”のリリース 2024年4月25日(現地時間⁠)⁠、Ubuntu 24.04 LTS “⁠Noble Numbat⁠”⁠、『⁠⁠高貴なフクロアリクイ』がリリースされました。Linuxカーネル6.8とGNOME 46をベースに、さまざまな更新を加えたLTS(Long Term Support)リリースです。 そのままでも5年、有償サブスクリプション(5...

「Vim」が愛され続ける理由と、サンプルで学ぶ使い方

「Vim」が愛され続ける理由と、サンプルで学ぶ使い方:TechTargetジャパンエンジニア読本集 「Linux」の標準テキストエディタとして根強い人気のあるのが「Vim」だ。初心者にとってはなじみにくいVimを、使い勝手の良いツールにするためのコマンドやカスタマイズを学ぼう。

僅か2.3GBで日本語可能な超高性能ローカルLLMのPhi-3 MINIをllama.cppとCPUで動かしてみた。スマホでも可。従来のコンパクトLLMと比較して超越した性能で未来を感じさせるMicroSoft寄付ありがとう

Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224 昨日MicroSoftからリリースしたローカルLLMモデルのPhi-3 mini 4k Q4をllama.cppのサーバ版を動かしてみた。こいつ2.32GBしかないくせに日本語しゃべれるぞ。今までとは桁違いの性能なんですけど・・・ ./build/bin/server -m ../Phi-3-mini-...

madeブログは10周年を迎えました - LIVESENSE ENGINEER BLOG

こんにちは。エンジニア採用広報チームです。 突然ですが、 2024年4月25日に当ブログは10周年を迎えました! 🎉 厳密なブログ開設日はわからなくなってしまっているので、当ブログの最初の記事の公開日から10年が経ったことを10周年と呼んでいます。 この記事では10周年を記念して、これまでの当ブログとその周辺の出来...

PerlからGoへのシステム移行のアシスト 〜Perl XSとUnix Domain Socketを活用〜 - Mirrativ Tech Blog

こんにちは ハタ です。 Mirrativ では 2020年頃から サーバサイドの技術をPerlからGoへのシステム移行 を行っており、2024年現在でもサグラダファミリアのように移行作業は継続しています PerlとGoという2つの環境を同時に運用していますが、 基本的には 新機能は Go で実装 し、 Perlでは積極的に新規実装を行わない ...

Linux」初心者が最初に学ぶべきネットワーク関連コマンド5選

Jack Wallen (Special to ZDNET.com) 翻訳校正: 編集部 2024-04-25 07:45 筆者は思い出せないくらい昔から「Linux」を使っている。そして、コマンドラインを使用することが年々少なくなっていることに気づいた。GUIが大幅に改善されたからだ。 とはいえ、特にネットワークに関しては、特定のタスクを今でもターミナル...

対話型TUIローカルLLM生成AIのOllamaを入れて遊んでみた。中身はllama.cpp。TUIがとても使いやすい。モデルがQ4量子化されていてコンパクト。LinuxとAndroid上のTermuxでも動いた。

中身はllama.cppなので、基本的な挙動は同じです。コマンドライン向けのUIが便利です。 Phi-2など小さいモデルなら低スペック用、高スペック用など使い分けして使えます。


Linux - アマゾン検索


「Linux」に関連する商品は見つかりませんでした

アマゾンから探す