ガジェット 生成AIの幻覚で指定される「架空のパッケージ」に悪用の危険性があるとセキュリティ研究者が警告 wpmaster 2024-03-29 GPT-4やClaude 3のような大規模言語モデルは人間が書いたように自然な文章を生成できますが、時として事実に基づかない情報を生成する「ハルシネーション(幻覚)」という現象を起こします。セキュリティ企業・Lasso Securityの研究者であるバー・ラニャド氏が、ハルシネーションによって存在しないパッケージを組み込んだソースコードが生成され、実際に使われていると指摘しています。 続きを読む… Source: gize ABOUT ME wpmaster 英語大好き人間のenglisheaterです。このブログではこのような英語に関する情報提供をしていきたいと思います。よろしくお願いします。