我們創立 Anthropic 是為了將安全性置於 AI 研究和 AI 產品的前沿。我們的研究為我們的商業產品提供信息支持,我們的模型是目前最可靠、最安全且最能抵抗濫用的模型之一。我們正在根據用戶反饋改進我們的安全過濾器 - 我們期望我們的商業客戶在我們的安全功能失效時對我們進行監督。
但我們相信安全是一項共同責任。我們的功能並非萬無一失,承諾的合作夥伴是第二道防線。根據您的使用案例,審核步驟會有所不同,但以下是一些額外的安全建議:
使用 Claude 作為內容審核過濾器來識別和防止違規行為。
對於面向外部的產品,向您的用戶披露他們正在與 AI 系統互動。
對於敏感信息和決策制定,在向消費者傳播內容之前,應由合格的專業人士進行審查。
我們鼓勵您向我們發送反饋或具體建議至 [email protected]。對於現有的商業合作夥伴,我們建議加入我們的 Discord 伺服器並與其他開發者交流想法。
