(R15くらいまで) 268336

よねぞん画像掲示板

キャラクターローダ     衣装ローダ     モーションローダ


[トップに戻る] [アルバム] [留意事項] [ワード検索] [過去ログ] [管理用]
※jpg/gif/png可 サムネイルになります。 アップローダのサムネイル画像登録用にも利用okです。
おなまえ
Eメール
タイトル
コメント
参照URL
添付File
暗証キー (英数字で8文字以内)
画像認証 (右画像の数字を入力) 投稿キー
文字色
kraken onion 投稿者:JohnnyTab 投稿日:2024/08/31(Sat) 14:11 No.2128

‘Dyson spheres’ were theorized as a way to detect alien life. Scientists say they’ve found potential evidence
<a href=https://kraken-18.at>kraken14.at</a>

What would be the ultimate solution to the energy problems of an advanced civilization? Renowned British American physicist Freeman Dyson theorized it would be a shell made up of mirrors or solar panels that completely surrounds a star harnessing all the energy it produces.

“One should expect that, within a few thousand years of its entering the stage of industrial development, any intelligent species should be found occupying an artificial biosphere which completely surrounds its parent star,” wrote Dyson in a 1960 paper in which he first explained the concept.
https://kraken141.at
kraken17.at
If it sounds like science fiction, that’s because it is: Dyson took the idea from Olaf Stapledon’s 1937 novel “Star Maker,” and he was always open about that. The late scientist was a professor emeritus at the Institute of Advanced Study in Princeton, New Jersey.
Still, coming from a thinker who some in the scientific community say might have been worthy of a Nobel Prize early in his career, the concept took hold and the hypothetical megastructures became known as Dyson spheres, even though the physicist later clarified that they would actually consist of “a loose collection or swarm of objects traveling on independent orbits around the star.”

In his paper, Dyson also noted that Dyson spheres would give off waste heat detectable as infrared radiation, and suggested that looking for that byproduct would be a viable method for searching for extraterrestrial life. However, he added that infrared radiation by itself would not necessarily mean extraterrestrial intelligence, and that one of the strongest reasons for searching for such sources was that new types of natural astronomical objects might be discovered.

“Scientists (at the time) were largely receptive, not to the likelihood that alien civilisations would be found to exist, but that a search for waste heat would be a good place to look,” said George Dyson, a technology writer and author and the second of Dyson’s six children, via email. “Science fiction, from ‘Footfall’ to ‘Star Trek,’ took the idea and ran with it, while social critics adopted the Dyson sphere as a vehicle for questioning the wisdom of unlimited technological growth.”

kraken21.at 投稿者:BradleyPef 投稿日:2024/08/17(Sat) 23:12 No.2127

Goats work as caddies at this Oregon ranch
<a href=https://kraken17.at-kraken16.at>kraken14.at</a>

To most, goat is simply the name for a horned ruminant mammal. For those in sporting circles, it’s a four-letter acronym bestowed upon the greatest of all time.

Venture through the myriad pine forests and winding creeks into the Blue Mountains of Eastern Oregon though, and both apply simultaneously.

https://kraken18.at-kraken15.at
kraken13.at
Silvies Valley Ranch offers a slice of Wild West luxury to travelers and for the golfers among them the opportunity to be caddied for by a rigorously trained team of goats.

A world first when launched in 2018, the current team is the best to ever do it, as far as Silvies owner Dr. Scott Campbell is concerned and they have even convinced some initial skeptics.

“A lot of people said it was a stupid idea,” Campbell told CNN.

“They thought it would make people call us a goat track. Nothing could be further from the truth. Everybody has a good time … People come from all over the world.”

New career path
The radical setup was born from a practical problem.

McVeigh’s Gauntlet Silvies’ seven-hole challenge course was far too steep for golf carts to safely traverse. With players only requiring a few clubs to play the course, carrying such a load was well within the capabilities of the ranch’s 3,000 grazers, whose ancestors were transporting cargo long before golfers were planting tees.

“The goats were asking for different career opportunities, and as an equal opportunity employer, we developed a new career path for them,” Campbell joked.

A three-month evaluation process sees potential caddies as young as six months old scouted on their friendliness and physical aptitude. Those that progress to the next stage are fitted with a custom-made golf bag tailored by Oregon-based company Seamus Golf to see if they’re comfortable carrying it.

The bag is near-empty for training, but for full-time caddies contains six clubs, extra balls and tees, six drink cans and their daily wage: a few dozen peanuts.

Chosen candidates are taught the course and put on a carefully monitored physical and nutrition regime before starting their new role from two years old, working six-hour shifts three to four days a week. An on-site vet visits the caddy shack situated next to the club house and open to visitors throughout the day on a weekly basis.

Eight goats make up today’s caddie team Chunky, Mulligan, Harry, Bogey, Birdie, Charlie, Carrot and Jack with nine yearlings in training and 10 three-month-old prospects waiting in the wings.

Р±РРРСРССС 投稿者:BrentMal 投稿日:2024/08/15(Thu) 21:32 No.2126

‘I see the world around me in a brand-new way’: Dubai photographer reveals the UAE’s hidden wildlife
<a href=https://www.bs2site2-at.com>blackspruty4w3j4bzyhlk24jr32wbpnfo3oyywn4ckwylo4hkcyy4yd.onion</a>

In a country best known for its soaring skyscrapers, modern architecture and sprawling desert, wildlife isn’t always what comes to mind when people think of the United Arab Emirates (UAE). But Dubai-based photographer Anish Karingattil is determined to change that.

Originally from India, Karingattil moved to Dubai 17 years ago and began photographing wildlife shortly after, specializing in macro photography, using extreme close ups. Highlights of his stunning portfolio of images, taken across the seven Emirates, include a scorpion with her babies, an Arabian horned viper hiding in the desert sand, and two black and yellow mud daubers covered in dew drops.
https://bsr2clear.cc
blacksprut com
“Photographers get to tell a story through images,” Karingattil says. “Macro photography allows me to see life and the world around me in a brand-new way.”

Despite its hot climate and harsh desert, the UAE is home to over 1,000 plant and animal species. The waters around the country are home to the largest concentration of Indian Ocean humpbacks dolphin in the world, and the second-largest population of dugongs, after Australia.

With the UAE’s president recently extending the country’s “Year of Sustainability” into 2024, Karingattil uses wildlife photography as a method of capturing the country’s biodiversity and sharing it with others.

While interior design is his full-time job, “herping” is his passion. “Herping is the act of observing, studying, and photographing reptiles and amphibians in their natural habitats,” says Karingattil. “It is a popular hobby among nature enthusiasts and wildlife photographers who are fascinated by the diversity and beauty of these creatures.”

2krn.nl 投稿者:JohnnyTab 投稿日:2024/08/13(Tue) 04:54 No.2125

‘Dyson spheres’ were theorized as a way to detect alien life. Scientists say they’ve found potential evidence
<a href=https://krakent14.at>kraken22.at</a>

What would be the ultimate solution to the energy problems of an advanced civilization? Renowned British American physicist Freeman Dyson theorized it would be a shell made up of mirrors or solar panels that completely surrounds a star harnessing all the energy it produces.

“One should expect that, within a few thousand years of its entering the stage of industrial development, any intelligent species should be found occupying an artificial biosphere which completely surrounds its parent star,” wrote Dyson in a 1960 paper in which he first explained the concept.
https://kpaken18.at
kraken15
If it sounds like science fiction, that’s because it is: Dyson took the idea from Olaf Stapledon’s 1937 novel “Star Maker,” and he was always open about that. The late scientist was a professor emeritus at the Institute of Advanced Study in Princeton, New Jersey.
Still, coming from a thinker who some in the scientific community say might have been worthy of a Nobel Prize early in his career, the concept took hold and the hypothetical megastructures became known as Dyson spheres, even though the physicist later clarified that they would actually consist of “a loose collection or swarm of objects traveling on independent orbits around the star.”

In his paper, Dyson also noted that Dyson spheres would give off waste heat detectable as infrared radiation, and suggested that looking for that byproduct would be a viable method for searching for extraterrestrial life. However, he added that infrared radiation by itself would not necessarily mean extraterrestrial intelligence, and that one of the strongest reasons for searching for such sources was that new types of natural astronomical objects might be discovered.

“Scientists (at the time) were largely receptive, not to the likelihood that alien civilisations would be found to exist, but that a search for waste heat would be a good place to look,” said George Dyson, a technology writer and author and the second of Dyson’s six children, via email. “Science fiction, from ‘Footfall’ to ‘Star Trek,’ took the idea and ran with it, while social critics adopted the Dyson sphere as a vehicle for questioning the wisdom of unlimited technological growth.”

ペイントデータをいじる(目) 投稿者:のぞく人 投稿日:2018/02/05(Mon) 18:13 No.488

Yomekoさんのアップローダーで公開されているツールの中に、以前こちらの掲示板に使った様子を書き込んだ(記事No.416)「icp2dat」があります。同じツールがアックスにもUPされているのですが、そちらのアーカイブにはYomekoさんに上がっているものには含まれてないファイルが幾つか入っており、その中に「alpbodyeyetex2.exe」というものがあります。

同梱されているソースのコメントに書いてある使い方によると目のペイントデータの書き出し/格納が出来るようなので(icp2datでは出来ない)前々から試してみようと思っていたところ、Soldatさんがよねぞんフリーアップローダで公開された「ビビリーダー」の説明に「瞳テクスチャは(中略)リアル瞳をお借りしています」とありましたので、丁度いいやとネタに使わせて貰うことにしました。以下、使ってみた様子です。icp2datの作者さんが公開されている別のツール「tga2png」も使います。


最初に断っておきますが、同様の作業はALP2PMXでも出来ます(よねぞん改「たむ式メーカー(ALP2PMX)でテクスチャを変える」(yonezonkai.blog.fc2.com/blog-entry-19.html)によねすけさんの詳しい説明が有ります)。alpbodyeyetex2でなきゃ出来ないというものではありません。基本的に個人的興味で使ってみただけです。また、画像の合成等もtga2png以外でもちろん出来ます。ただその為だけにGIMP等をインストールするのであればtga2pngの方が手軽かなと思います(GIMPでもpaint.netでも、あれば他の用途にも使えますが)。

あと、これ書いてる途中で判明したのですが、alpbodyeyetex2は目のメッシュ名が“eye_A”“eye_AR”の決め打ちになっているので、かすたむ系ヘッド(かすたむ☆たいむ以降)と20773ヘッド以外ではボディのペイントデータしか扱えません。瞳のペイントデータは書き出し/格納共に出来ません。“おまけ”扱いなのでこれは今後とも変わらないと思います。ALP2PMXはもちろんどのヘッドでも大丈夫です。

以下連投です。

使ったツールについて - のぞく人 2018/02/05(Mon) 18:16 No.489
ツールの入手ですが、Yomekoさんのアップローダーからtga2pngを取ってきて下さい。頻繁にアップデートが繰り返されているので番号書きませんが、常に最新版しか上がってないと思います。アックス(www.axfc.net)に置いてあるicp2datはこのアーカイブに入っている“このツールと他のツールについてなど.txt”というファイルにURLが書いてあります(Yomekoさんに置いてあるicp2datのアーカイブ内の“ミラーについてなど.txt”というファイルにも書いてあります)。それを見て最新のものをアックスから落として下さい(パスワードは一緒)。

tga2pngのインストールは、適当なフォルダを作ってそこに実行ファイルとアーカイブ中にある“mesh”フォルダを放り込んでやって下さい(なお展開したmeshフォルダ中の“_ReadMe_mesh.txt”は削除して下さい)。以前にも書きましたが、うちでは“TamTool”というフォルダを作ってそこに実行ファイル(tga2png.exe)と説明(ReadMe_tga2png.txt)とmeshフォルダを他のツールと一緒に放り込んであります。

tga2pngのどの実行ファイルを使うかですが、基本的には“.net4.0”フォルダのものでいいと思います。Windows7(以前)の人も大抵の場合は他のソフトが.Net Framework 4.0以降をインストールしてるものと思われます。Win7(以前)で.Net4.0以降が入っていないと断言できる、もしくはインストールされてるかさっぱり分からない(確認の仕方も)といった場合は“.net2.0”フォルダにある実行ファイルを使って下さい(怒られてから使うので構わないと思う…)。

次いでalpbodyeyetex2ですが、まずアーカイブ内のどこにあるかと言いますと、“icp2dat”フォルダの下にある“omake”というフォルダに入っています。これも実行ファイル(alpbodyeyetex2.exe)をtga2pngと同じフォルダに展開してもいいのですが、使い方(後述)を考えると実行ファイルをデスクトップに置いてしまっても良いかもしれません。私は実行ファイル自体は他のツールと同じフォルダに入れて、デスクトップにショートカットを作りました。実体を置くかショートカットを置くかはお好み次第ですが、どちらかが在った方が使う上で便利だと思います。

alpbodyeyetex2を使ってみた - のぞく人 2018/02/05(Mon) 18:19 No.490
で、取り敢えずの目的です。Soldatさんの“ビビリーダー.alp”(yonezon.coresv.com/joyful2/joyful.cgi?read=3588)は、ノリさんがよねぞんフリーアップローダで公開されている「リアル調のキャラクター用瞳テクスチャ」(“eye.zip”、yonezon.coresv.com/joyful2/joyful.cgi?read=1479)を導入した環境で制作されています。そのままだと同じテクスチャが導入されてないと瞳が意図した通りに描かれません。そこでペイントデータ(レイヤー)にノリさんのリアル調テクスチャとSoldatさんがペイントしたデータを合成したものを取り込んで、リアル調テクスチャが導入されてない通常の環境でも意図した通りの瞳が描画されるようにしようというものです。なお、Soldatさんが同時に公開された「ビビリアルィーダー」(yonezon.coresv.com/joyful2/joyful.cgi?read=3589)にも全く同じ手順が適用できます。

作業に入ります。対象のALPファイル(ビビリーダー.alp)はす〜るのsaveフォルダ以外の所で作業するようにして下さい。alpbodyeyetex2を使う分にはファイルが多数生成される事はないのでデスクトップでも大丈夫ですが、基本的には作業フォルダを作ってそこにコピーするのが良いと思います。リアル調瞳テクスチャも使用してない場合はどこかに展開しておいて下さい。ビビリーダー.alpと同じフォルダでいいと思います。

実は今回試しに使ってみるまで気付いてなかったのですが、alpbodyeyetex2は基本的にはコンソールプログラムです(フォームを持っていないの意)。但し引数を何も付けずに起動すると処理対象のALPファイルを入力する為のファイルダイアログボックスが開き、以後はマウスを使って操作することになります。

引数無しで起動すると、ALPに続いてボディのペイントデータとして入力するファイル、通常目のペイントデータとして入力するファイル、AR目(通常じゃない方、メッシュ名にARが入るのでこう呼ぶことにしてます)のペイントデータとして入力するファイルと順に訊かれます。ペイントデータを書き出す時はこれ3つともキャンセルで抜けるのですが、それなりに面倒なので、デスクトップに置いたアイコンに処理対象のファイルをdrag&dropした方が手っ取り早いです。上でデスクトップにショートカットか実体を置いておいた方がいいと書いたのはその為です。ALPファイルだけをdropすると、ALPファイルと同じフォルダにペイントデータがTGAファイル(α付き32bit無圧縮)の形で書き出されます。

書き出されるペイントデータのファイル名は

[メッシュ名]@[ODFファイル名].tga

の形で、これはALP2PMXと同じです。“BODY_top_L@RT_BODY_TYPE_A.ODF.tga”というファイルも出力されますが、これはボディのペイントデータなので今回は使いません。用があるのは“eye_A@…”“eye_AR@…”の2つだけです。ビビリーダー.alpはのどかヘッドを使用しているので、ファイル名はそれぞれ“eye_A@HEAD_RT_BASE.ODF.tga”と“eye_AR@HEAD_RT_BASE.ODF.tga”になります。このファイル名はALPがどのヘッドを使っているかに依存します(ヘッド毎のODFファイル名やメッシュ名は「ヘッド表3」(よねぞんアップローダーの00048)に書いてあるので確認したい方はどうぞ)。

と、ここで、「メッシュ名がeye_Aとかで始まらないらぶデス2系ヘッドだとどうなるのかな?」と思いnanami.alpで確認しところ、ボディのペイントデータしか書き出されません。ソースを確認してみると、通常目、AR目のメッシュ名がそれぞれ“eye_A”“eye_AR”であるものとして処理されていました。メッシュ名が“eye_A_Mesh_HEAD_RT_base_Layer2”等となっているらぶデス4系ヘッドもyuuki.alpで一応確認してみましたが、やはりボディのペイントデータしか出力されません(当然)。ということで、先に書いたようにalpbodyeyetex2が使えるのはかすたむ系ヘッド(と20773ヘッド)に限ると判明いたしました。


ALP2PMXだったら - のぞく人 2018/02/05(Mon) 18:22 No.491
ALP2PMXを使った場合を書いておきますと、“ビビリーダー.alp”のある場所に“ビビリーダー”というフォルダが作成され、その下に(のどかヘッド使用なので)“head_A”というフォルダが作られて、その中に数多くのファイルと一緒に“eye_A@HEAD_RT_BASE.ODF.tga”“eye_AR@HEAD_RT_BASE.ODF.tga”が書き出されます。これを編集、上書き保存して[TGA⇒ALP]ボタンで書き戻すという流れになります。

tga2pngを使ってみた(合成) - のぞく人 2018/02/05(Mon) 18:25 No.492
ペイントデータが書き出せたので次はリアル調瞳テクスチャとの合成です。これはtga2pngでやってみました。(ちょっと古い版で作業しましたが、多分最新版でも変わってないと思います。)

tga2pngを起ち上げると「File変換モード」で起動します。が、ペイントデータの合成を行うのはこのモードではないので、画面右側下から4分の1くらいの所にある[差分作成モードへ]のボタンを押します。

「差分作成モード」になったら、「ベース画像」(左上)と「比較/合成画像」(右上)を指定します。今回の場合はベース画像がリアル調瞳テクスチャ、比較/合成画像が先程出力したペイントデータです。ファイルの指定は枠内にdrag&dropすることでも出来ますし、枠内を左クリックすればダイアログボックスが出るのでそこからでも入力できます。まずは通常目ということで、ベース画像に“l_eye_A_anim_black.bmp”、比較/合成画像に“eye_A@HEAD_RT_BASE.ODF.tga”を指定しました。

双方のファイルを指定すると、最初は押せない状態になっていた右側にある諸々のボタンが押せるようになります。今回はテクスチャとペイントデータの合成なので[合成画像生成]ボタンを押します。すると、合成された画像が左下に表示されます(作者さんもす〜るで使われている合成アルゴリズムを調べて実装したのではないと思うので厳密に同じことが行われている保証は無いですが、多分同じです)。今回は、他のボタン/設定はいじってないです。

tga2pngでありがたいと思ったのは、比較/合成画像の側がαチャネル付き32bitの画像であれば、ベース画像側が24bitでも出来上がり(合成された画像)がαチャネル付き32bitになる点です(TGAでやっただけでPNGは試してみてませんが…)。合成結果をTGAで書き出してやればそのままALPに書き戻すペイントデータとして使えます。

合成結果の保存は画像の枠内を右クリックすることで出てくるメニューから行います。一番下に「画像保存」という項目があるのでこれをクリックします(右側に出るオプションは変更しなくていいと思います)。ファイルの種類はTGAファイルを選びます。ファイルの場所と名前ですが、ペイントデータの出し入れにALP2PMXを使っている場合は元の場所の“eye_A@HEAD_RT_BASE.ODF.tga”を上書きすることになります。alpbodyeyetex2を使う場合もやはりペイントデータを書き出したフォルダに出力するのが良いと思いますが、ファイル名は“eye_A”という文字が含まれてさえいればOKです(だからと言って“eye_AR”が含まれていてはいけません)。取り敢えず“eye_A_new.tga”という名前で保存して試してみましたが、書き戻しまで無事終了しました。画像は上書き保存でやってみた時のものです。こちらも書き戻しまで問題無く終了しました。

次いで、AR目についても同様の合成を行います(ベース画像が“l_eye_AR_anim_black.bmp”、比較/合成画像が“eye_AR@HEAD_RT_BASE.ODF.tga”)。こちらも最初は合成結果を“eye_AR_new.tga”という名前で保存しました。ファイル名は“eye_AR”が含まれている必要があります。ペイントデータを取り込めたことを確認した後、今度は上書き保存(“eye_AR@HEAD_RT_BASE.ODF.tga”)して再度試しています。

余談ですが、合成結果の画像を直接drag&dropしてみたところ、“合成画像.png”という名前で保存されました。ただ、αチャネル無しの24bitになるようです。


ペイントデータを取り込む - のぞく人 2018/02/05(Mon) 18:28 No.493
最後に、新しいペイントデータをALPファイルに書き戻します。対象ALPと読み込ませるペイントデータ2つの計3ファイル(画像では“ビビリーダー.alp”と“eye_A@HEAD_RT_BASE.ODF.tga”と“eye_AR@HEAD_RT_BASE.ODF.tga”)を選択してalpbodyeyetex2のアイコンにまとめてdrag&dropすると、対象ALPファイルがある場所に“[元のファイル名]_tex2.alp”という名前でペイントデータを取り込んだファイルが書き出されます(今回の場合は“ビビリーダー_tex2.alp”です)。

alpbodyeyetex2を引数無しで起動(もしくはアイコンをダブルクリック)した場合は、先ずALPファイルを指定、ボディの入力ファイルはキャンセル、eye_Aの入力ファイルに“eye_A@HEAD_RT_BASE.ODF.tga”を指定、eye_ARの入力ファイルに“eye_AR@HEAD_RT_BASE.ODF.tga”を指定といった流れになります。ALPファイルだけdrag&dropした場合は追加の入力ファイルは訊かれずにペイントデータの書き出しが行われます(上で書いたのと同じ動作)。合成結果を上書き保存していた場合は問答無用で更に上書きされてしまいますので、注意が必要です。

ALP2PMXの場合は「ALPファイル」に対象ファイル(“ビビリーダー.alp”)を指定して、[TGA⇒ALP]ボタンを押して合成結果を取り込みます。alpbodyeyetex2と違いALPファイルは上書きされます。

以上でリアル調瞳テクスチャとペイントデータの合成及びALPへの書き込み、完了です。


tga2pngを使ってみた2(変換) - のぞく人 2018/02/05(Mon) 18:31 No.494
つづき。瞳のテクスチャデータを直接ペイントデータに取り込むのにもtga2pngが利用できます。要するに、他の形式の画像ファイルをαチャネル付き32bitのTGAファイルに変換する目的にも使えるということです。例としては引き続きノリさんのリアル調瞳テクスチャを利用します。

今度は起動した直後の「File変換モード」でそのまま使います。まず上半分のグリッド(何も読み込まれてない時は真っさらですがグリッドです)の部分に変換したいファイルをdrag&dropして登録します(単純にダイアログを開くような登録方法が見つけられませんでした。ごめんなさい)。今回の場合は“l_eye_A_anim_black.bmp”と“l_eye_AR_anim_black.bmp”の2つのファイルです。

右側中程にある変換モードを選ぶドロップダウンリストからは「TGA画像に変換」を選びます。続いて[TGAに変換]ボタンを押すのではなくて、まずは右クリックします。すると変換動作のオプションが現れますから、「32ビットカラー化」(試したバージョンだと上から4番目)にチェックを入れます。ここにチェックを入れないとペイントデータとして読み込めるαチャネル付き32bitのフォーマットにならず、αチャネル無し24bitのファイルとして出力されてしまいます。

改めて[TGAに変換]を押すと、元のファイル名の拡張子を“tga”に書き換えたファイルが出力されます。出力先は変換元のファイルがある場所に固定されています(デフォルトでは出力するファイルと同名のファイルが既にあった時は変換を回避するようです)。他のフォルダに出力したい時は、変換ボタンの3列下にある[出力先]ボタンを押して出力先フォルダを選ぶ(フォルダを選ぶと左側のチェックは自動で入ります)か、ボタン左側のチェックボックスをチェックして出力先を直接手入力するかして予め指定しておいて下さい。


tga2pngを使ってみた3 - のぞく人 2018/02/05(Mon) 18:34 No.495
なお、複数ファイルをまとめて変換するには上記の方法が良いと思いますが、1つずつ個別に変換するなら他の方法もあります。上のグリッドでファイルを1つ選択すると左下の枠の中に画像が読み込まれます。ここで右クリックすると表示されるメニューの最下段に「画像保存」があり、更にそのサブメニューの中に「保存Option表示」があるのでそれにチェックを入れます。そこで上の階層に戻って「画像保存」をクリックするとファイル保存のダイアログが出るので、種類に「TGAファイル」を指定し、場所とファイル名も指定して[保存]ボタンを押します。するとファイル変換モードを選ぶ小さなメニュー(先程の保存Optionとはコレ)が現れるので、「32ビットカラー化」にチェックを入れ、[保存実行]ボタンを押すと画像がαチャネル付き32bitのTGAファイルに変換されて出力されます。

個別保存の場合は更に、イメージボックス(画像が表示されている枠)の右クリックメニューで「ImageBox画像」→「α値(不透明度)関連」と進んで「32ビットカラー化」を選択し、先にαチャネル付きのデータに変換しておいてから書き出すという方法もあります。

TGAファイルが出力されたら、あとはペイントデータとしてALPに取り込みます。alpbodyeyetex2を使う場合はALPファイルとTGAファイル2つ(今回だったら“l_eye_A_anim_black.tga”と“l_eye_AR_anim_black.tga”)の計3ファイルをまとめてalpbodyeyetex2(もしくはそのショートカット)のアイコンにdrag&dropして下さい。瞳テクスチャをペイントデータに取り込んだALPファイルが作成されます。

ALP2PMXを使う場合は、[ALP⇒TGA]ボタンを使って予めペイントデータを書き出しておきます。その時作成されるフォルダの更に子供の階層にある“head_*”(ヘッドのODFファイルが格納されているフォルダ名と同じ名前。“*”の部分はヘッド毎に固有。ヘッド名との対応は“head_units.dat”に記載されている。のどかヘッドなら“head_A”。これもヘッド表3で見られます)フォルダの中にあるペイントデータ(を書き出したTGAファイル)を探して、先程BMPファイルから変換して作った新しいペイントデータで置き換えます。のどかヘッドだったら

“l_eye_A_anim_black.tga” →“eye_A@HEAD_RT_BASE.ODF.tga”
“l_eye_AR_anim_black.tga”→“eye_AR@HEAD_RT_BASE.ODF.tga”

とファイルをリネームして、“head_A”フォルダにあるファイルを上書きします。あとは[TGA⇒ALP]ボタンを押せば、ALPファイルの瞳テクスチャのペイントデータが新しく取り込んだデータで更新されます。

因みに瞳ペイントデータのファイル名ですが、先にも書いたように使用するヘッドが変わると変わります。かすたむ系ヘッドを使う分には基本的には変わりませんが、エイルヘッドはODFファイル名が違うので“eye_A@HEAD_0000.ODF.tga”となります。らぶデス3、4系のヘッドだとメッシュ名が違うので“eye_A_Mesh_HEAD_RT_base_Layer2@HEAD_RT_BASE.ODF.tga”となりますし(一応全部一緒。AR目だったら“eye_AR_”で始まる)、らぶデス2系ヘッドだと通常目だけで、ペイントデータの名前も“Mesh_HEAD_RT_base_Layer2@HEAD_RT_BASE.ODF”の様に“eye_A”で始まりません(あゆみヘッドは更にODFファイル名も違います)。探す際は注意して下さい。

以上です。全部読み通した方、オツカレサマ!


Page: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 |

処理 記事No 暗証キー

- Joyful Note -