Connect with us

Technology

Czarni założyciele tworzą dostosowane ChatGPT, aby zapewnić bardziej spersonalizowane doświadczenia

Published

on

Chatbot icon on the digital futuristic blue wavy background. 3d Illustration with bright colors and pixelated technology.

Na początku John Pasmore był podekscytowany ChatGPT.

Założyciel serialu był związany ze sztuczną inteligencją co najmniej od 2008 roku. Pamięta czasy, gdy eksperci deklarowali, że upłyną dziesięciolecia, zanim świat ujrzy coś w rodzaju ChatGPT. Przejdźmy dalej – ten dzień właśnie nadszedł.

Ale jest w tym haczyk.

ChatGPT, jedno z najpotężniejszych narzędzi sztucznej inteligencji na świecie, zmaga się z niuansami kulturowymi. To dość denerwujące dla czarnej osoby, takiej jak Pasmore. W rzeczywistości to niedopatrzenie wywołało gniew wielu Czarnych, którzy już nie widzieli siebie odpowiednio reprezentowanych w algorytmach reklamowanych, aby pewnego dnia uratować świat. Obecny ChatGPT oferuje odpowiedzi, które są zbyt ogólne, aby można było odpowiedzieć na konkretne pytania skierowane do określonych społeczności, ponieważ jego szkolenie wydaje się europocentryczne i zachodnie w swoim nastawieniu. Nie jest to niczym wyjątkowym — większość modeli sztucznej inteligencji nie jest tworzona z myślą o osobach kolorowych. Jednak wielu czarnoskórych założycieli stanowczo twierdzi, że nie można pozostać w tyle.

W zeszłym roku pojawiło się wiele chatbotów i wersji ChatGPT należących do osób czarnoskórych, aby zaspokoić potrzeby społeczności czarnoskórych i brązowych, ponieważ twórcy rasy czarnej, tacy jak Pasmore, starają się wykorzystać kulturowe wpadki OpenAI.

„Jeśli ogólnie zapytasz modelkę, kim są jedni z najważniejszych artystów w naszej kulturze, poda ci Leonarda da Vinci i Michała Anioła” – Pasmore powiedział o ChatGPT. „Nie będzie w nim nic napisane o Indiach, Chinach, Afryce ani nawet Afroamerykanach, ponieważ jest nastawiony na europejską trajektorię historii”.

Więc wystartował Pasmore Latimer.AI, model językowy umożliwiający udzielanie odpowiedzi dostosowanych do doświadczeń osób rasy czarnej i brązowej. Zaczęła Erin Reddick CzatBlackGPT, chatbot również skupiony na społecznościach czarnych i brązowych. Na całym świecie ma siedzibę w Kanadzie Świeca, który jest alternatywą dla ChatGPT dla studentów czarnoskórych i brązowych. W Afryce również obserwuje się ogromne innowacje w tej przestrzeni – pojawiają się modele językowe obsługujące ponad 2000 języków i dialektów używanych na kontynencie, które wciąż przeoczają zachodnie modele sztucznej inteligencji.

„Jesteśmy strażnikami naszych własnych historii i doświadczeń” – powiedziała TechCrunch Tamar Huggins, założycielka Spark Plug. „Musimy stworzyć systemy i infrastrukturę, które posiadamy i które kontrolujemy, aby mieć pewność, że nasze dane pozostaną nasze”.

Spersonalizowana sztuczna inteligencja jest już dostępna

Uogólnione modele sztucznej inteligencji nie są w stanie łatwo uchwycić doświadczeń Afroamerykanów, ponieważ wiele aspektów tej kultury nie jest dostępnych w Internecie. Obecne algorytmy przeszukują Internet w poszukiwaniu źródeł informacji, ale wiele tradycji i dialektów w kulturze Afroamerykanów jest przekazywanych ustnie lub z pierwszej ręki, pozostawiając lukę w tym, co model sztucznej inteligencji zrozumie na temat społeczności, w porównaniu z niuansami tego, co faktycznie się dzieje.

Jest to jeden z powodów, dla których Pasmore podczas tworzenia Latimer.AI próbował korzystać ze źródeł takich jak Amsterdam News, jedna z najstarszych czarnoskórych gazet w USA, koncentrując się na dokładności, a nie na szkoleniu na danych generowanych przez użytkowników pobranych z Internetu. Robiąc to, zaczął dostrzegać różnice między swoim modelem a modelem ChatGPT.

Przypomniał sobie, jak ludzie pytali kiedyś ChatGPT o podziemną kolej, czyli przejście, którym zniewoleni czarni Amerykanie podróżowali do północnych stanów, aby uciec przed niewolnictwem. Model ChatGPT wspominałby o zbiegłych niewolnikach, podczas gdy Latimer.AI dostosował sformułowanie, odnosząc się do „zniewolonych” lub „ludzi poszukujących wolności”, co bardziej odpowiada temu, co stało się bardziej społecznie dostosowane podczas omawiania byłych zniewolonych.

„Występują pewne subtelne różnice w języku, którego używa model, ze względu na dane szkoleniowe, a sam model uwzględnia jedynie osoby rasy czarnej i brązowej” – powiedział Pasmore.

Tymczasem ChatBlackGPT Erin Reddick jest wciąż w fazie beta i ma zostać uruchomiony 11 czerwca. Jej produkt działa tak, jak brzmi: chatbot, w którym można zadawać pytania i otrzymywać dostosowane odpowiedzi na temat czarnej kultury. „Sednem tego, co robimy, jest prawdziwie zorientowane na społeczność” – powiedziała.

Kredyty obrazkowe: ChatBlackGPT i Stefan Youngblood

Jest w trakcie opracowywania narzędzia, pytając użytkowników jak chcą, żeby to wyglądało i jak chcą, żeby działało. Współpracuje także z instytucjami edukacyjnymi, takimi jak historycznie czarne szkoły wyższe i uniwersytety (HBCU), aby współpracować ze studentami zarówno w zakresie nauczania, jak i pomagania w szkoleniu jej algorytmu. Powiedziała, że ​​chce „stworzyć wszechstronne możliwości uczenia się dla osób rasy czarnej i brązowej, aby miały bezpieczną przestrzeń do odkrywania sztucznej inteligencji”.

„Algorytm nadaje priorytet źródłom informacji osób rasy czarnej, dzięki czemu może odnosić się do wiedzy, z którą można się bardziej bezpośrednio utożsamić niż z przeciętnym doświadczeniem” – powiedziała TechCrunch, dodając, że podobnie jak w przypadku produktu Pasmore, technicznie rzecz biorąc, każdy może z niego korzystać.

Tamar Huggins stworzyła świecę zapłonową, aby zapewnić bardziej dostosowane doświadczenia społecznościom czarnoskórym i brązowym. Jej platforma tłumaczy materiały edukacyjne na język afroamerykański wernakularny (AAVE), etnolekt kojarzony ze społecznościami czarnoskórych Amerykanów. Dialekt ten jest tradycyjnie przekazywany ustnie i z pierwszej ręki, a nie studiowany i spisywany jak standardowy angielski, co oznacza dokładność modelu sztucznej inteligencji (lub osoby), która się go uczy po prostu web załamie się w precyzji. Dokładne przechwytywanie AAVE jest ważne nie tylko po to, aby chatbot zareagował, używając go, ale także po to, aby uczniowie mogli łatwiej pisać podpowiedzi, dzięki którym sztuczna inteligencja zwróci potrzebne wyniki.

Zdjęcie ze strony internetowej Spark Plug
Kredyty obrazkowe: Świeca zapłonowa (zrzut ekranu)

„Tworząc treści, które przemawiają do czarnoskórych uczniów, zapewniamy, że widzą siebie w edukacji, co ma kluczowe znaczenie dla wysokiego zaangażowania i sukcesu akademickiego” – powiedział Huggins. „Gdy nadarzy się okazja, Big Tech prawie zawsze będzie przedkładać zyski nad ludzi. Dlatego stworzyliśmy własną ścieżkę w przestrzeni AI.

Aby uchwycić istotę AAVE, Huggins przeszkoliła swój algorytm na pismach czarnoskórych autorów z okresu renesansu w Harlemie, czarnoskórych autorów w edukacji, a nawet na mowie jej nastoletniej córki. Huggins współpracuje również z pedagogami, lingwistami i ekspertami ds. kultury, aby przeglądać i weryfikować wyniki Spark Plug. Jej produkt również nie jest oparty na ChatGPT. Jest to własny model, co oznacza, że ​​użytkownicy kontrolują swoje dane.

Pasmore ma również plany zbudowania osobnego modelu podstawowego dla swojego Latimera.AI. Obecnie pracuje nad rozszerzeniem swojej firmy na szkoły, zwłaszcza HBCU, ponieważ coraz więcej uczniów codziennie korzysta z ChatGPT, aby dokończyć swoją pracę.

„To lepszy towarzysz sztucznej inteligencji do wielu prac, które wykonują czarnoskóre i brązowe dzieci” – powiedział.

Zjednoczenie diaspory

Afryka jest postrzegana jako pomijana w obecnym ruchu AI. Na przykład tylko 0,77% wszystkich czasopism poświęconych sztucznej inteligencji na świecie pochodzi z Afryki Subsaharyjskiej, w porównaniu z Azją Wschodnią i Ameryką Północną, gdzie odsetek ten wynosi odpowiednio 47,1% i 11,6%, według badania z 2023 r. Raport dotyczący indeksu sztucznej inteligencji. Pod względem liczby ludności, w porównaniu z Ameryką Północną, Afryka stanowi około 17% światowej populacji, w porównaniu z zaledwie 7% Ameryki Północnej. Kiedy nadchodzi czas, aby pozyskać informacje i ekspertów na temat sztucznej inteligencji, szanse na wykorzystanie badań z krajów Afryki Subsaharyjskiej są dość niskie, co może mieć wpływ na rozwój globalnych narzędzi sztucznej inteligencji.

Chociaż w Afryce nastąpił duży postęp w tworzeniu bardziej włączających modeli językowych, które lepiej służą czarnej diasporze, obecnie obecne modele sztucznej inteligencji, od ChatGPT po Gemini, nie są w stanie w pełni obsługiwać ponad 2000 języków używanych w całej Afryce.

Stworzyła Yinkę Iyinolakan CDIAL.AI aby się tym zająć. CDIAL.AI to chatbot, który mówi i rozumie prawie wszystkie afrykańskie języki i dialekty, ze szczególnym naciskiem na wzorce mowy, a nie na tekst.

Iyinolakan powtórzył w TechCrunch to samo zdanie, które wyraziło wielu czarnoskórych Amerykanów – że podstawowe modele sztucznej inteligencji są pobierane głównie z danych internetowych i z najczęściej używanych języków. Podobnie jak kultura potomstwa Afroamerykanów, wiele afrykańskich języków i tradycji jest nieobecnych w Internecie, ponieważ jest to kultura historycznie przekazywana ustnie, a nie w formie pisemnej. Oznacza to, że modele sztucznej inteligencji nie mają wystarczających informacji na temat kultur afrykańskich, aby się szkolić, co powoduje lukę w wiedzy.

Kredyty obrazkowe: stronie internetowej CDIAL.AI

Do współpracy z CDIAL.AI Iyinolakan zaangażował ponad 1200 rodzimych użytkowników języka i lingwistów z całej Afryki, aby zebrali wiedzę i spostrzeżenia w celu zbudowania, jak to określa, „pierwszego na świecie wielojęzycznego modelu dużego języka, w którym najważniejszy jest głos”. W ciągu najbliższych 12 miesięcy firma planuje rozszerzyć swoją działalność o jeszcze więcej języków i zbudować model obsługujący tekst, głosy i obrazy.

Nie jest tu sam. Niedawno firma Google przyznała firmie Jacaranda Health z siedzibą w Kenii dotację w wysokości 1,4 miliona dolarów na rozwój usług uczenia maszynowego, tak aby mogły one działać w większej liczbie języków afrykańskich, a firma Intron Health zebrała niedawno kilka milionów dolarów na skalowanie swojego klinicznego rozpoznawania mowy pod kątem ponad 200 akcentów używanych w całej Afryce .

„Dolina Krzemowa chce wierzyć, że jest to ostateczny cel sztucznej inteligencji” – powiedział Iyinolakan. „Ale aby „pozyskać” sztuczną inteligencję, którą wszystkie firmy uważają za swoją gwiazdę północną, muszą wykorzystać jedną trzecią wiedzy świata”.

Robimy postępy

Wykorzystywanie chatbotów AI nie jest jedyną innowacją, z którą starają się uporać czarni założyciele.

Firmę założyli Steve Jones i DeSean Brown pocstock do tworzenia zdjęć seryjnych osób kolorowych, ponieważ przez dziesięciolecia brakowało mniejszości reprezentowanych na zdjęciach stockowych. Jest to jeden z powodów, dla których dzisiejsze modelki wypluwają głównie zdjęcia białych ludzi, gdy użytkownicy proszą je o wygenerowanie zdjęć wszystkiego, od lekarzy po piosenkarzy popowych.

„Wszystkie platformy i narzędzia powinny być szkolone na podstawie pełnych, włączających rasowo i kulturowo dokładnych danych, w przeciwnym razie (utrwalą) problemy z uprzedzeniami, przed którymi stoi obecnie nasze większe społeczeństwo” – Jones powiedział TechCrunch. Aby rozwiązać ten problem, pocstock przez ostatnie pięć lat zbierał dane dotyczące różnorodności i tworzył własny system tagowania wizualnego, który stanowi wkład w bazę danych wykorzystywaną przez firmy do szkolenia modeli sztucznej inteligencji, dzięki czemu mogą one tworzyć bardziej włączające obrazowanie.

Następują jednak pewne ulepszenia. Jones powiedział, że zauważył, że większe firmy zajmujące się obrazowaniem stockowym, które korzystają z usług firm zajmujących się sztuczną inteligencją, robią większe postępy w zwiększaniu różnorodności swoich treści. Pasmore widzi przed sobą także lepszą przyszłość, twierdząc, że spersonalizowana sztuczna inteligencja i tak jest przyszłością i że im więcej modeli sztucznej inteligencji wchodzi w interakcję z użytkownikami, tym lepiej rozumie pragnienia i potrzeby konkretnej osoby, „co, jak sądzę, eliminuje wiele uprzedzeń .”

W przyszłości może nawet pojawić się miejsce na bardziej specyficzne kulturowo modele sztucznej inteligencji, zwłaszcza że pojawia się coraz więcej alternatyw należących do Czarnych. W końcu świat jest ogromny i pełen niuansów — nie ma sensu umieszczać go w jednej czarnej skrzynce.

„Mam nadzieję, że więcej twórców koloru zaangażuje się w rozwój własnych platform sztucznej inteligencji lub tworzenie nowych stanowisk pracy związanych ze sztuczną inteligencją jak najwcześniej w kolejnym boomie gospodarczym” – powiedział Jones. „Sztuczna inteligencja stworzy bilionerów i bardzo chciałbym, aby ludzie kolorowi zajęli pozycję producentów, a nie tylko konsumentów”.

This article was originally published on : techcrunch.com
Continue Reading
Advertisement
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Technology

Bluesky addresses trust and security issues related to abuse, spam and more

Published

on

By

Bluesky butterfly logo and Jay Graber

Social media startup Bluesky, which is constructing a decentralized alternative to X (formerly Twitter), provided an update Wednesday on the way it’s approaching various trust and security issues on its platform. The company is in various stages of developing and piloting a variety of initiatives focused on coping with bad actors, harassment, spam, fake accounts, video security and more.

To address malicious users or those that harass others, Bluesky says it’s developing recent tools that can have the option to detect when multiple recent accounts are created and managed by the identical person. This could help curb harassment when a foul actor creates several different personas to attack their victims.

Another recent experiment will help detect “rude” replies and forward them to server moderators. Like Mastodon, Bluesky will support a network where self-hosters and other developers can run their very own servers that connect to Bluesky’s server and others on the network. This federation capability is still in early access. But in the long term, server moderators will have the option to resolve how they need to take care of individuals who post rude responses. In the meantime, Bluesky will eventually reduce the visibility of those responses on its app. Repeated rude labels on content will even lead to account-level labels and suspensions, it says.

To curb using lists to harass others, Bluesky will remove individual users from the list in the event that they block the list creator. Similar functionality was recently introduced to Starter Packs, a sort of shared list that will help recent users find people to follow on the platform (check TechCrunch Starter Pack).

Bluesky will even scan lists with offensive names or descriptions to limit the potential of harassing others by adding them to a public list with a toxic or offensive name or description. Those who violate Bluesky’s Community Guidelines might be hidden from the app until the list owner makes changes that align with Bluesky’s policies. Users who proceed to create offensive lists will even face further motion, though the corporate didn’t provide details, adding that the lists are still an area of ​​energetic discussion and development.

In the approaching months, Bluesky also intends to move to handling moderation reports through its app, using notifications relatively than counting on email reports.

To combat spam and other fake accounts, Bluesky is launching a pilot that can attempt to routinely detect when an account is fake, scamming or sending spam to users. Combined with moderation, the goal is to have the option to take motion on accounts inside “seconds of receiving a report,” the corporate said.

One of the more interesting developments is how Bluesky will comply with local laws while still allowing free speech. It will use geotags that allow it to hide some content from users in a particular area to comply with the law.

“This allows Bluesky’s moderation service to maintain flexibility in creating spaces for free expression while also ensuring legal compliance so that Bluesky can continue to operate as a service in these geographic regions,” the corporate shared in a blog post. “This feature will be rolled out on a country-by-country basis, and we will endeavor to inform users of the source of legal requests when legally possible.”

To address potential trust and safety issues with videos which have recently been added, the team is adding features like the flexibility to disable autoplay, ensuring videos are labeled, and providing the flexibility to report videos. They are still evaluating what else might need to be added, which might be prioritized based on user feedback.

When it comes to abuse, the corporate says its general framework is “a question of how often something happens versus how harmful it is.” The company focuses on addressing high-impact, high-frequency issues, in addition to “tracking edge cases that could result in significant harm to a few users.” The latter, while only affecting a small number of individuals, causes enough “ongoing harm” that Bluesky will take motion to prevent abuse, it says.

User concerns will be reported via reports, emails and mentions @safety.bsky.app account.

This article was originally published on : techcrunch.com
Continue Reading

Technology

Apple Airpods Now With FDA-Approved Hearing Aid Feature

Published

on

By

The newest AirPods are a part of a growing group of hearing aids available over-the-counter.


Apple’s latest Airpods could help those with hearing impairments. The tech company’s software update has been approved by the FDA to be used as hearing aids.

The FDA approved Apple’s hearing aid feature on September 12. The free update, available on AirPods Pro 2, will amplify sounds for the hearing impaired. However, the feature is simply available to adults 18 and older with an iPhone or iPad compatible with iOS 18.

“Today’s approval of over-the-counter hearing aid software for a commonly used consumer audio product is another step that will increase the availability, affordability, and acceptability of hearing support for adults with mild to moderate hearing loss,” said Dr. Michelle Tarver, acting director of the FDA’s Center for Devices and Radiological Health, in a press release. obtained by .

They confirmed the feature’s use after a clinical trial with 118 participants. The results showed that users “achieved similar perceived benefits to those who received a professional fit on the same device.” Apple also announced the brand new development just days before the agency’s approval.

“Hearing health is an essential part of our overall well-being, yet it is often overlooked — in fact, according to Apple’s Hearing Study, as many as 75 percent of people diagnosed with hearing loss go untreated,” said Sumbul Desai, MD, vice chairman of Health at Apple. press release“We’re excited to deliver breakthrough software features in AirPods Pro that put users’ hearing health first, offering new ways to test and get help for hearing loss.”

What’s more, Apple intends its recent AirPods to supply a “world-first” hearing health experience. Noting that 1.5 billion people suffer from hearing loss, the device also goals to forestall and detect hearing problems.

“Your AirPods Pro will transform into your own personalized hearing aid, amplifying the specific sounds you need in real time, such as parts of speech or elements of your environment,” Desai added in a video announcing the event.

The latest AirPods are a part of a growing variety of over-the-counter (OTC) hearing aids. They usually are not only more accessible, but additionally significantly cheaper than prescription medical devices. While they’re designed for individuals with mild to moderate hearing loss, they’ll initially treat those with limited abilities.

AirPods Pro 2 is available now for $249.


This article was originally published on : www.blackenterprise.com
Continue Reading

Technology

LinkedIn collected user data for training purposes before updating its terms of service

Published

on

By

LinkedIn scraped user data for training before updating its terms of service

LinkedIn could have trained AI models on user data without updating its terms.

LinkedIn users within the United States — but not within the EU, EEA, or Switzerland, likely as a consequence of data privacy laws in those regions — have the choice to opt out toggle on the settings screen, revealing that LinkedIn collects personal data to coach “AI models to create content.” The toggle isn’t recent. But, as in early reported According to 404 Media, LinkedIn didn’t initially update its privacy policy to handle data use.

The Terms of Service have already been published. updatedbut that sometimes happens well before an enormous change, equivalent to using user data for a brand new purpose like this. The idea is that this offers users the choice to make changes to their account or leave the platform in the event that they do not like the changes. It looks like that is not the case this time.

So what models does LinkedIn train? Its own, the corporate’s says in a Q&A session, including models to put in writing suggestions and post recommendations. But LinkedIn also says that generative AI models on its platform could be trained by a “third-party vendor,” equivalent to its corporate parent Microsoft.

“As with most features on LinkedIn, when you use our platform, we collect and use (or process) data about your use of the platform, including personal data,” the Q&A reads. “This may include your use of generative AI (AI models used to create content) or other AI features, your posts and articles, how often you use LinkedIn, your language preferences, and any feedback you may have provided to our teams. We use this data, in accordance with our privacy policy, to improve or develop the LinkedIn Services.”

LinkedIn previously told TechCrunch that it uses “privacy-enhancing techniques, including redaction and removal of information, to limit personally identifiable information contained in datasets used to train generative AI.”

To opt out of LinkedIn’s data collection, go to the “Data Privacy” section of the LinkedIn settings menu in your computer, click “Data to improve Generative AI,” after which turn off “Use my data to train AI models to create content.” You may try a more comprehensive opt-out through this typebut LinkedIn notes that opting out is not going to affect training that has already taken place.

The nonprofit Open Rights Group (ORG) has asked the Information Commissioner’s Office (ICO), the UK’s independent regulator for data protection laws, to research LinkedIn and other social networks that train on user data by default. Earlier this week, Meta announced it was resuming plans to gather user data for AI training after working with the ICO to simplify the opt-out process.

“LinkedIn is the latest social media company to process our data without asking for our consent,” Mariano delli Santi, a lawyer and policy officer at ORG, said in a press release. “The opt-out model once again proves to be completely inadequate to protect our rights: society cannot be expected to monitor and prosecute every internet company that decides to use our data to train AI. Opt-in consent is not only legally required, but also common sense.”

The Irish Data Protection Commission (DPC), the supervisory authority responsible for monitoring compliance with the GDPR, the EU’s general privacy rules, told TechCrunch that LinkedIn had last week announced that clarifications on its global privacy policy could be published today.

“LinkedIn has informed us that the policy will include an opt-out setting for members who do not want their data used to train AI models that generate content,” a DPC spokesperson said. “This opt-out is not available to EU/EEA members, as LinkedIn does not currently use EU/EEA member data to train or tune these models.”

TechCrunch has reached out to LinkedIn for comment. We will update this text if we hear back.

The need for more data to coach generative AI models has led to more platforms repurposing or otherwise repurposing their vast troves of user-generated content. Some have even taken steps to monetize that content—Tumblr owner Automattic, Photobucket, Reddit, and Stack Overflow are among the many networks licensing data to AI model developers.

Not all of them made opting out easy. When Stack Overflow announced it will begin licensing content, several users deleted their posts in protest — only to see those posts restored and their accounts suspended.

This article was originally published on : techcrunch.com
Continue Reading
Advertisement

OUR NEWSLETTER

Subscribe Us To Receive Our Latest News Directly In Your Inbox!

We don’t spam! Read our privacy policy for more info.

Trending