Delen via


microsoftml.categorical_hash: Hashes en converteert een tekstkolom naar categorieën

Gebruik

microsoftml.categorical_hash(cols: [str, dict, list],
    hash_bits: int = 16, seed: int = 314489979,
    ordered: bool = True, invert_hash: int = 0,
    output_kind: ['Bag', 'Ind', 'Key', 'Bin'] = 'Bag', **kargs)

Beschrijving

Categorische hashtransformatie die kan worden uitgevoerd op gegevens voordat u een model traint.

Bijzonderheden

categorical_hash converteert een categorische waarde naar een indicatormatrix door de waarde te hashen en de hash als index in de zak te gebruiken. Als de invoerkolom een vector is, wordt er één indicatorzak geretourneerd. categorical_hash biedt momenteel geen ondersteuning voor het verwerken van factorgegevens.

Argumenten

Cols

Een tekenreeks of lijst met namen van variabelen die moeten worden getransformeerd. Als dict, vertegenwoordigen de sleutels de namen van nieuwe variabelen die moeten worden gemaakt.

hash_bits

Een geheel getal waarin het aantal bits naar hash wordt opgegeven. Moet tussen 1 en 30 liggen, inclusief. De standaardwaarde is 16.

zaad

Een geheel getal dat de hash-seed aangeeft. De standaardwaarde is 314489979.

Besteld

True de positie van elke term in de hash opnemen. Anders False. De standaardwaarde is True.

invert_hash

Een geheel getal dat de limiet opgeeft voor het aantal sleutels dat kan worden gebruikt om de naam van de site te genereren. 0 betekent geen hashing omkeren; -1 betekent geen limiet. Hoewel een nulwaarde betere prestaties biedt, is een niet-nulwaarde nodig om betekenisvolle coëfficiënten op te halen. De standaardwaarde is 0.

output_kind

Een tekenreeks die het type uitvoer aangeeft.

  • "Bag": voert een multi-set vector uit. Als de invoerkolom een vector van categorieën is, bevat de uitvoer één vector, waarbij de waarde in elke site het aantal exemplaren van de categorie in de invoervector is. Als de invoerkolom één categorie bevat, zijn de indicatorvector en de zakvector gelijkwaardig

  • "Ind": voert een indicatorvector uit. De invoerkolom is een vector van categorieën en de uitvoer bevat één indicatorvector per sleuf in de invoerkolom.

  • "Key: voert een index uit. De uitvoer is een geheel getal-id (tussen 1 en het aantal categorieën in de woordenlijst) van de categorie.

  • "Bin: voert een vector uit die de binaire weergave van de categorie is.

De standaardwaarde is "Bag".

kargs

Aanvullende argumenten die naar de berekeningsengine worden verzonden.

Retourneert

een object dat de transformatie definieert.

Zie ook

categorical

Voorbeeld

'''
Example on rx_logistic_regression and categorical_hash.
'''
import numpy
import pandas
from microsoftml import rx_logistic_regression, categorical_hash, rx_predict
from microsoftml.datasets.datasets import get_dataset

movie_reviews = get_dataset("movie_reviews")

train_reviews = pandas.DataFrame(data=dict(
    review=[
        "This is great", "I hate it", "Love it", "Do not like it", "Really like it",
        "I hate it", "I like it a lot", "I kind of hate it", "I do like it",
        "I really hate it", "It is very good", "I hate it a bunch", "I love it a bunch",
        "I hate it", "I like it very much", "I hate it very much.",
        "I really do love it", "I really do hate it", "Love it!", "Hate it!",
        "I love it", "I hate it", "I love it", "I hate it", "I love it"],
    like=[True, False, True, False, True, False, True, False, True, False,
        True, False, True, False, True, False, True, False, True, False, True,
        False, True, False, True]))
        
test_reviews = pandas.DataFrame(data=dict(
    review=[
        "This is great", "I hate it", "Love it", "Really like it", "I hate it",
        "I like it a lot", "I love it", "I do like it", "I really hate it", "I love it"]))


# Use a categorical hash transform.
out_model = rx_logistic_regression("like ~ reviewCat",
                data=train_reviews,
                ml_transforms=[categorical_hash(cols=dict(reviewCat="review"))])
                
# Weights are similar to categorical.
print(out_model.coef_)

# Use the model to score.
source_out_df = rx_predict(out_model, data=test_reviews, extra_vars_to_write=["review"])
print(source_out_df.head())

Uitvoer:

Not adding a normalizer.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
LBFGS multi-threading will attempt to load dataset into memory. In case of out-of-memory issues, turn off multi-threading by setting trainThreads to 1.
Warning: Too few instances to use 4 threads, decreasing to 1 thread(s)
Beginning optimization
num vars: 65537
improvement criterion: Mean Improvement
L1 regularization selected 3 of 65537 weights.
Not training a calibrator because it is not needed.
Elapsed time: 00:00:00.1209392
Elapsed time: 00:00:00.0190134
OrderedDict([('(Bias)', 0.2132447361946106), ('f1783', -0.7939924597740173), ('f38537', 0.1968022584915161)])
Beginning processing data.
Rows Read: 10, Read Time: 0, Transform Time: 0
Beginning processing data.
Elapsed time: 00:00:00.0284223
Finished writing 10 rows.
Writing completed.
           review PredictedLabel     Score  Probability
0   This is great           True  0.213245     0.553110
1       I hate it          False -0.580748     0.358761
2         Love it           True  0.213245     0.553110
3  Really like it           True  0.213245     0.553110
4       I hate it          False -0.580748     0.358761